Suchfibel / Suchmaschinen TechnikNeue Ranking Methoden

Neue Ranking Methoden

Es ist ein Hase-und-Igel Spiel: Immer dann, wenn es neue Ranking Methoden gibt, dann schafft es jemand, diese zu überlisten und sich damit auf die ersten Plätze der Suchmaschinen zu manipulieren.

Vor allem Google hat eine Vielzahl von Ranking Methoden entwickelt. von denen aber nur gesagt wird, das sie (überhaupt) eine Rolle spielen, aber nicht, in welchem Maße. An dieser Stelle darf man also trefflich spekulieren. Es gibt also die klassischen On Page Rankingfaktoren, dazu das weite Feld der Linkpopularität bzw. Page Rank, die Sache mit der Themenrelevanz, und auch ein paar weitere Mechanismen:

Nutzerdaten: geklickte Treffer

Wer ganz genau hinschaut, wird feststellen, dass Google (hin und wieder) Klicktracker hinter die Suchergebnis-Links einbaut. Damit werden die Klicks auf die Suchergebnisse gezählt. Man kann so nicht nur feststellen, wie viel Prozent der Suchenden auf welche Trefferposition klicken, sondern auch Zusammenhänge zwischen Klickhäufigkeit bei bestimmten Überschriften, Vorkommen der Suchwörter in den Überschriften, Anzeige der Abstracts und anderen statistischen Daten herstellen. Welchen Einfluß welche Daten genau haben, wird nicht kommuniziert, aber dass die gewonnenen Werte zur Verbesserung der Suche beitragen sollen, steht wohl außer Zweifel.

Ladezeit der Webseite, Geschwindigkeit des Servers

Ein wesentliches Qulitätsmerkmal einer Webseite ist, dass sie schnell zur Verfügung steht. Wer hat schon die Geduld, einen langen Seitenaufbau abzuwarten? Die Idee, die Ladegeschwindigkeit mit zu bewerten, kommt eigentlich aus der Adwords Werbung. Die Position der Anzeige in Googles Adwords Anzeigen wird nicht nur durch das Gebot bestimmt, auch durch Qualitätsfaktoren. Bei Werbeseiten ist die Frustrationstoleranz extrem gering; erfolgreiche Werbung muss schnell zu interessanten Angeboten führen, denn Werbung soll ja beiden dienen: Dem Werbetreibenden sollen Kunden zugeführt, und interessierten Käufern ein attraktives Angebot gemacht werden. Es lag also nahe, die Geschwindigkeit von Seiten auch ins normale Ranking einfließen zu lassen.

Wie groß der Einfluß dieses Faktors ist, ist schwer zu bestimmen, denn es muß vermieden werden, dass inhaltlich interessante Hobbyseiten, die durchaus eine gute Position verdient haben, benachteiligt werden, nur weil der Betreiber mangels wirtschaftlicher Interessen sich nur einen billigen und langsamen Webhoster leisten mag.

Alter der Domain

In Zeiten vieler neuer Projekte, die teilweise nur dem Zweck dienen, Suchmaschinenlistungen zu ergattern und mit Werbung Geld zu verdienen, stellen ältere Projekte, die entstanden sind, schon bevor mit Adsense Geld gescheffelt wurde, einen Kontrapunkt dar. Man könnte sagen, eine alte Domain hat etwas mehr "Glaubwürdigkeit" als eine neue. Wenn sie denn nicht den Besitzer wechselt, was Google anhand der Registrierungsdaten leicht feststellen kann. Sind ältere Domains wirklich "glaubwürdiger"? Was ist mit eingeschlafenen Projekten, die seit Urzeiten nicht aktualisiert wurden? Schwierige Sache, und doch wird dieses Ranking Kriterium diskutiert.

Duplicate Content (DC)

Es war eine Zeit lang in Mode, Inhalte aus frei verfügbaren Quellen wie Wikipedia und dem Open Directory zu übernehmen und auf neuen Webseiten zu präsentieren oder neu zusammenzustellen. Wer keine Inhalte hatte, "klaute" sich welche und versuchte damit, die die Trefferlisten zu kommen. Eine Trefferliste mit lauter ählichen oder identischen Treffern ist für den Nutzer nicht hilfreich, deswegen hat Google gegengesteuert und erkennt jetzt solche doppelten Inhalte. Das Verfahren ist sehr verfeinert worden, und so werden auch Teile von Texten erkannt.

Google muss dabei feststellen, welche die originale und wichtigste Quelle für die Texte darstellt, und das ist gar nicht so einfach. Weil das in Zweifelsfall viel Rechenleistung kostet, kann es passieren, dass Google im Einzelfall gar keine der Fundstellen mit Duplicate Content anzeigt. Es kann also sein, dass jemand, der Inhalte übernimmt, dem ursprünglichen Autor auf diese Weise zusätzlich schadet.

Und es ist zusätzlich wichtig, sehr darauf zu achten, dass innerhalb des eigenen Angebotes Inhalte und Seiten nicht mehrfach unter verschiedenen URLs angezeigt werden oder eben Texte dauernd wiederverwendet werden.

 


Die Rankingfaktoren einer Seite sind gar nicht schwierig zu optimieren. Es handelt sich um keine Geheimwissenschaft, sondern um solides Handwerk.