Schlagwort-Archive: Farmer Update

Farmer Update – wen es getroffen hat.

Das letzte Google Update, bekannt unter dem Namen Farmer Update, hat eine Reihe von inhaltsleeren Seiten ausgefiltert, aber auch andere Seiten in den Suchergebnissen zurückgeworfen oder abgestraft. Suchmaschinenoptimierer auf der ganzen Welt recherchieren, wie sich dieses Update ausgewirkt hat. Jill Whalen hat mir freundlicherweise erlaubt, ihren letzten Newsletter-Artikel in deutscher Übersetzung hier zu veröffentlichen.

Jill Whalen ist seit 1995 Geschäftsführerin von High Rankings, einem Suchmaschinenoptimierungs-Unternehmen in Boston. Sie twittert auf @JillWhalen.

Farmer Update – wen es getroffen hat.

Inzwischen habt Ihr sicher auch vom neuen Google Update gehört, das als Farmer Update gehandelt wird. Laut Google werden ca. 12% der Suchabfragen davon beeinflußt. Weitere Informationen liefert das SISTRIX-Blog und präsentierte die Top 25 Websites, die über Nacht zu zahlreichen Keywords nicht mehr in den Google Suchergebnissen auftauchen. Ich wollte mehr über das Farmer Update erfahren, und SISTRIX war so freundlich, mir (d.i.: Jill Whalen) die lange Liste der mehr als 300 Websites zur Verfügung zu stellen, die massiv an Traffic verloren haben. Außerdem haben mir verschiedene Betreiber ihre Websites zur Begutachtung anempfohlen.

Ich hoffte, über eine Analyse die Gemeinsamkeiten der Seiten festzustellen, die betroffen waren, um die spezifischen Kriterien zu verstehen, die Google anlegte, wenn es eine Seite heftig zurückstufte. Ihr könnt Euch vorstellen, das ich hier eine Menge Daten zu bewältigen hatte, und ich habe den Eindruck, erst am Anfang zu stehen. Dennoch habe ich ein paar vorläufige Ergebnisse, die ich Euch so schnell wie möglich mitteilen möchte.

Was ich vorausschicken möchte: Wenn ich auf betroffenen Seiten ähnliche Beobachtungen macht, bedeutet das nicht zwingend, dass diese Faktoren der Grund für Verlust an Zugriffe über Google sind. Es griffe in allen Bereichen der Suchmaschinenoptimierung zu kurz, Vermutungen anzustellen und dabei Ursache und Wirkung zu vermischen. Deshalb empfehle ich Euch, diese meine Informationen als das zu nehmen, was sie sind: Erste Ergebnisse, die mich aufmerken ließen. Bedenkt auch, dass ich kaum genug Zeit hatte, mögliche Onpage-Faktoren zu erforschen, die hier eingewirkt haben könnten. Auf die hereinkommenden Links dieser Seiten habe ich nicht einmal einen Blick werfen können. Wir wissen, das Links und Linktexte Googles Liebling sind. deshalb können meine Onpage-Analysen auch ganz nebensächlich sein.

Wenn wir diesen Vorbehalt hinter uns lassen, gehen wir jetzt über zu ein paar interessanten Beobachtungen, die mich stutzig machten – auf der Basis der Seiten, die ich bisher untersucht habe.

Halb verborgene Inhalte

Eine überraschendes Ergebnis, das für die Verluste bei Google verantwortlich sein mag (oder auch nicht), war, dass viele der untersuchten Seiten über eine Tab-Navigation erreichbare und damit für die Benutzer normaler Browser zuerst verborgene Inhalte hatten. Natürlich ist es möglich, dass dieses Designelement heute so beliebt ist, dass in einer zufälligen Auswahl von Websites häufig auftreten würde, aber es fiel mir schon auf. Noch interessanter wurde es, da die betroffenen Seiten meist sehr viel Inhalt in desen Tab-Bereichen hatten. Mit solchen Tabs sieht der Besucher immer nur den Inhalt in einem Bereich zur selben Zeit, während Google den gesamten Text so sieht, als befände er sich auf einer Seite (was technisch gesehen auch stimmt, weil alles über eine URL erreichbar ist). In vielen Fällen bildet der Content aus allen Tabs zusammen Tausende von Wörtern – und oft auch Hunderte von Links.

Eigentlich ist nichts verkehrt daran, Tabs so zu benutzen (und viele Websites verwenden sie so), aber manchmal könnten doch Warnlichter aufleuchten.

Es gibt viele Methoden, Content hinter Tabs zu verbergen. Zwei der Seiten, die ich untersucht habe, benutzen zwei verschiedene Wege: Eine verwendete „display: none; visibility: hidden;“, die zweite „overflow: hidden;“.

Warum das Google vielleicht nicht gefällt: Jede der Seiten verwendet Tabs aus unterschiedlichen Gründen, und ich bezweifele, dass Google allein an „visibility:hidden;“ Anstoß genommen hat. Vielleicht aber hat Google überlange Seiten bemängelt, da sie weniger anwenderfreundlich sind (und nicht gemerkt, dass der Inhalt über Tabs strukturiert war). Darüber hinaus haben die Massen Links in einigen Tabs vielleicht den Rahmen gesprengt.

In einem Fall setzte ich meinen Browser auf Googlbot und versuchte damit eine Seite zu lesen, die Tabs mit jeder Menge Inhalt dahinter verwendete, bekam aber eine Fehlermeldung, dass die Seite überhaupt nicht angezeigt werden konnte. Der Fehler schien mit einem sonderbaren, verborgenen Werbelink in einem der Tabs zu tun zu haben.

In einem anderen Fall halb verborgener Inhalte war das Design sher cool und benutzerfreundlich.Reihte man aber die Inhalte all der verborgenen Bereiche so aneinander, wie Google sie sieht, wirkten sie wie ein Durcheinander aus Keyword-Stuffing. Ich habe keine Ahnung, ob dieses Keyword-Stuffing beabsichtigt war, aber bis zum Farmer Update hatte es funktioniert.

Ganz verborgene Inhalte

Ein anderes gemeinsames Kennzeichen einiger Seiten, die ich untersucht habe,  war, dass die wirklichen Inhalte erst nach einer Registrierung greifbar waren. Die Seiten enthielten keywordreiche Texte, aber den kompletten Artikel konnte man erst lesen, wenn man sich registriert hatte. Das hat Google noch nie gemocht. Deshalb boten sie das „First Click Free“-Programm an, damit Anbieter, die Registrierung anfordern, ihre Inhalte dennoch indiziert bekommen. Diese müssen aber den vollständigen Artikel zur Verfügung stellen, wenn man über die Google Suche darauf kommt. Die betroffenen Seiten folgten dem „First Click Free“-Programm nicht.

Warum Google das vielleicht nicht gefällt: Google meint, dass man sich an die (First Click Free)-Regeln halten sollte, wenn man seine Inhalte indiziert bekommen möchte. Es geht wahrscheinlich auch davon aus, dass eine Seite, die nur eine Zusammenfassung der Inhalte anzeigt, die zur Suchanfrage passen, nicht das beste Ziel für den Suchenden ist. Deshalb überrascht es mich nicht, wenn solche Seiten vom Farmer Update betroffen sind.

Kreisverlinkte Seiten, die fast nur Anzeigen und Links enthalten.

In der langen SISTRIX-Liste entdeckte ich eine Website, für die ich eine Datenanalyse für das letzte Jahr gemacht hatte. Ich muss zugeben, dass es eine der verrücktesten Websites war, die ich je gesehen habe. Schockierend, dass Google sie weit oben in den Suchergebnissen anzeigte. Als ich sah, dass die Website vom letzten Update schwer betroffen war, hat mich das nicht wirklich überrascht. Dann beobachtete ich Gemeinsamkeiten dieser Seite mit Websites, die Google auch abgewertet hatte – hauptsächlich, dass man im Kreis herumgeschickt wurde, wenn man die Informationen finden wollte, die man ursprünglich auf Google gesucht hatte.

Und so läuft es auf diesen Seiten ab: Man gelangt auf eine Seite, die die Keywords enthält, die man bei Google eingegeben hat, nur um dort festzustellen, dass man erst mit einem weiteren Link auf die wirklich gesuchten Informationen kommen kann. Klickt man diesen Link an, landet man auf einer anderen Website oder auf einer Seite derselben Site, die aber immer noch nicht den gewünschten Inhalt zeigt. Es scheint, als könne man endlos weiterklicken, ohne am Ziel anzukommen. Dabei hat man den Eindruck, selbst etwas falsch zu machen, aber nicht, dass die Seiten einfach inhaltslos sind (und natürlich sind diese Seiten auch immer randvoll mit Google AdSense und anderer Werbung).

Ähnlich wie diese Karussell-Seiten aggregierten anderen Seiten, die ich untersuchte, auf die eine oder andere Weise nur fremden Content. Meist wäre es für Google besser, die Originalseiten anzuzeigen statt einer Seite, die nur andere Seiten auflistet und dabei nur eine Werbeplattform darstellt.

Eine Seite zeigte Produktvergleiche und schien oberflächlich in Ordnung zu sein. Als ich aber ein Produkt heraussuchte und es auf der Website, für die der günstigsten Preis angezeigt wurde, anschauen wollte, landete ich entweder auf der Homepage dieser Website oder auf einer, die ein vergleichbares Produkt (jedoch nicht dasselbe) anbot. Au weiah!

Warum das Google wahrscheinlich nicht gefällt: Google publizierte, der Sinn dieses Updates bestünde darin, die Qualität der Suchergebnisse für den Benutzer zu verbessern. Alle oben genannten Websites haben einen hohen Anteil an Seiten, die irgendwie unter die Rubrik „schlechte Qualität“ fallen. Es ist nur logisch, dass es für Google sinnvoller ist, die auf solchen Seiten verlinkten Websites direkt anzuzeigen.

So, das ist mein ersten Eindruck, der auf einer kleinen Anzahl von Seiten basiert.

Worauf Ihr achten solltet

Nach allem, was ich gesehen habe, scheinen Benutzbarkeit und Absicht der Seiten im Mittelpunkt zu stehen. Ich habe keine Ahnung, wie Google die Seiten nach Benutzbarkeit filtert, aber es scheint so, als verfolgten sie Seiten, die Benutzer frustrieren könnten. Googles Ziel ist es, die Suchanfragen seiner Benutzer befriedigend zu beantworten. Sein Ziel ist es nicht, Benutzer von Seite zu Seite zu schicken, um dann endlich an die ursprünglich gesuchten Informationen zu kommen.

Nach diesem Beitrag warf ich einen Blick auf die neuen Google-Ergebnisse, und da gibt es leider ein paar noch üblere Seiten. In einem Fall war die Seite, die der Suchanfrage nur durch die Keywords entsprach, durch eine armselige, kleine „Zeig-die-AdSense-Anzeigen“-Website ohne jeden Nährwert verdrängt worden. Keine Ahnung, wie diese das Farmer Update überlebt hat.

Dieses Update ist wohl nur der Anfang gewesen. Darin bin ich mir sicher: Google hat die nächsten Monate noch an vielen Stellschrauben zu drehen, um die Ergebnisse zu verbessern.

Jill