Linkpopularität
Wer viele Links auf seine Seiten vorweisen kann, der hat eine populäre Seite, die gut rankt? So einfach ist es leider nicht. Nicht nur die Zahl der Links ist wichtig, auch ihre Qualität.
Linkpop der verlinkenden Seiten
Leicht nachvollziehbar: Ein Link von einer Seite, die Ihrerseits viele Links auf sich verweisen kann, wiegt schwerer als von einer Seite, die selber gar nicht verlinkt ist. Das ist der Kern des Algorithmus zur Errechnung der Linkpopularität, die bei Google nach ihrem Erfinder und Google Gründer Larry Page benannt wurde: Page Rank. Wenn man aber diese Linkpopularität erstmal auf das ganze Web hochrechnet, dann wird es echt komplex. Dass Google diese Komplexität gemeistert hat, ist der Grund für den anfänglichen Erfolg, denn damit waren die Suchergebnisse gleich zum Start wesentlich besser als die der damaligen Konkurrenz. Seit damals hat Google natürlich den ursprünglichen Algorithmus des Page Rank stark erweitert.
Linkpopularität im Detail: Viele Fragen
Es ergeben sich eine ganze Reihe Detailfragen, die die Sache mit der Linkpopularität echt knifflig machen. Wie soll man als Designer der Link Popularität beispielsweise in folgenden Fällen verfahren?
- Was tun, wenn sich Seiten gegenseitig 1 zu 1 verlinken? Wie ein "Aufschaukeln" der Linkpopularität verhindern? Was, wenn die Links nicht 1 zu 1, aber innerhalb der Domain aufeinander gesetzt werden?
- Wie sollen Links innerhalb einer Domain gewichtet werden? Was ist mit Subdomains? Was, wenn die Subdomains einem, oder mehreren Betreibern gehören und damit unabhängig voneinander sind?
- Was tun mit den "Standard" Seiten wie AGB, Impressum, etc, die innerhalb einer Domain stark verlinkt, aber inhaltlich wenig spannend sind, das Ganze in zig Sprachen und Varianten?
- Was, wenn Seiten zwar auf einer populären Domain stehen, aber von außen gar nicht verlinkt werden?
- Was, wenn viele Links auf einer Domain von unterschiedlichen Seiten auf viele Seiten einer anderen Domain verweisen? Manipulation oder inhaltlich enge Vernetzung?
So, und wenn diese Fragen alle geklärt sind, dann bitte daraus eine Formel stricken, die es möglich macht, Milliarden von Dokumenten zueinander ins Verhältnis zu setzen...
Manipulierte Links
Und als ob das nicht schon komplex genug wäre, kommt seit ein paar Jahren das Problem manipulierter Links dazu. Weil sich die Macht der Links herumgesprochen hat, gibt es zunehmend Links, die nicht aus inhaltlichen Gründen, sondern als Werbelinks eingebunden werden, ohne dass das transparent wird. Wie erkennen? Wie dann verfahren?
Dieses Problem ist so gravierend, dass Google einen seiner Grundsätze über Bord werfen mußte. Lange Zeit hiess es unisono, dass die Suchergebnisse ausschliesslich maschinell erstellt werden. Inzwischen gibt es Quality Teams, die bei erkennbarer Manipulation eine Seite oder oft gar ganze Domain manuell abwerten, "Google Penalty" heisst das dann, und bedeutet, dass alle Treffer der betroffenen Domain dann erst sehr weit hinten in den Trefferlisten auftauchen.
Thematisch passende Links
Ein Link trägt neben dem Verweisziel immer auch eine Information in sich, den Linktext. Ein Linktext wie "hier klicken" ist inhaltsleer, ein Linktext wie "Tolles für die Modelleisenbahn" sagt hingegen schon etwas aus (ganz am Rande – ist das nun ein inhaltlich passender Link, oder wird mit einem solchen Link manipuliert? Echt knifflig!). Der Linktext ist also zusätzlich wichtig für die verlinkte Seite. Was aber, wenn der Webmaster das nicht weiß, aber trotzdem eine thematisch prima passende Seite betreibt und zu einer thematisch passenden anderen Seite verweist? Viele knifflige Fragen...
So, und jetzt das Ganze bitte mit ein paar Milliarden multiplizieren. Nicht genug damit, Google hat seine Version der Linkpopularität, den Page Rank, sogar noch komplexer gestrickt.