Bei der Suchmaschinen-Optimierung (engl. Search Engine Optimization, SEO) geht es darum, durch Optimierung eine bessere Position der eigenen Website bei den generischen Ergebnissen zu erzielen. Diese Optimierung wird auf der einzelnen Webseite (On the Page Optimization) und im Umfeld der Website (Off the Page Optimization) gemacht. Bei der Optimierung gibt es sowohl positive Einflussfaktoren als auch negative. Das Wissen über diese negativen Faktoren, hilft die Optimierung nicht umzukehren oder den Aufwand zu groß werden zu lassen. Die Optimierungsarbeit lässt sich mit Tools erleichtern. Im Folgenden werden zuerst die wichtigsten Begriffe definiert und erklärt. Auf diesem Wissen basierend werden anschließend verschiedene Methoden zur Optimierung einer Website erläutert. Dies wird durch eine Erklärung der negativen Faktoren und der Grenzen der Optimierung sowie einiger ausgesuchter Tools zur Unterstützung der Arbeit abgerundet.
Wie jedes Spezialgebiet hat auch die Suchmaschinen Optimierung ihre eigenen Fachbegriffe oder spezielle Begriffsdefinitionen. Wobei Begriff in diesem Fall weit gefasst ist und auch Konzepte und Methoden umfasst.
Als Backlink oder Rückverweis wird ein Textlink, der von einer anderen Website auf die eigene Website verweist, bezeichnet. Die Anzahl und die Qualität der Backlinks werden von Suchmaschinen für die Linkpopularität einer Webseite herangezogen. Über die Linkpopularität wird von Suchmaschinen auf die Qualität einer Website geschlossen, denn sie gehen davon aus, dass nur auf eine Website mit qualitativ guten Inhalt verlinkt wird. Hierbei wird der verlinkte Text als Keyword für die Website verwendet. Wenn viele Links[47] für die gleiche Website als verlinkenden Text einen negativ assoziierten Begriff verwenden, wird die Website unter diesem Begriff gefunden. Diese Methode ist als Google-Bombe bekannt und trat erstmals 1999 auf. Anfang 2007 änderte Google die Funktionsweise von Backlinks im Google-Algorithmus und entschärfte diese Missbrauchsmöglichkeit.[48]
Als Keyword wird der Suchbegriff einer Suchanfrage bezeichnet, dieser kann aus einem oder mehreren Worten (Zeichen) bestehen. Ebenso wird der Begriff bezeichnet, zu dem man im Suchmaschinen Marketing die Werbung einblendet. Hierzu zählen nicht die sogenannten Stoppwörter wie Artikel, Pronomen und dergleichen, welche von Suchmaschinen gefiltert werden.[49]
Die Anzahl der Links, welche auf eine Webseite zeigen, wird als Linkpopularität bezeichnet. Daraus folgt, je höher die Anzahl der Links, desto höher die Linkpopularität. Die Linkpopularität wurde früher oft missbraucht und deshalb verwendet heute keine Suchmaschine mehr die reine Linkpopularität, sondern abgewandelte Konzepte.[50]
Die Domainpopularität ist eines dieser abgewandelten Konzepte. Hierbei zählen nicht mehr alle Links, sondern die Links einer Domäne werden einfach gezählt. Früher wurden von einer Domäne oft tausende von Links zu einer Webseite gemacht, um diese im Ranking der Suchmaschine nach oben zu bringen, diese tausenden von Links haben beim Konzept der Domainpopularität die Wertigkeit lediglich eines Links.
Da auch die Domainpopularität missbraucht werden kann, in dem man viele Domains auf einem Webserver bereit stellt, wurde das Konzept der IP-Popularität entwickelt. Hierbei werden alle Links auf die Webseite von der gleichen IP-Adresse über die Anzahl gewichtet. Das Vorgehen ist ähnlich der Domainpopularität, nur dass hier nicht der Domainname betrachtet wird, sondern die IP-Adresse. Dieses Vorgehen ist problematisch, da viele große Hoster (z.B. Strato) Domains auf dem gleichen Server hosten. Bei Einsatz dieses Verfahrens werden unabhängige Websites bestraft werden, da sie auf dem gleichen Server gehostet werden.[51]
Der Google PageRank (PR) ist eine Verfeinerung des Linkpopularitätskonzeptes. Die Entwickler Larry Page und Sergey Brin argumentieren gegen das Konzept der einfachen Linkpopularität, da nicht jedes verlinkende Dokument gleichwertig ist und somit jeder Link entsprechend seiner Wichtigkeit gewichtet werden sollte. Da der PageRank Algorithmus schon lange im Einsatz ist, geht man davon aus, dass er von Google im Laufe der Zeit modifiziert wurde. Am Grundprinzip wird sich aber grundlegend nicht viel verändert haben, da das PageRank-Verfahren ein wichtiger Faktor des Erfolges von Google ist. Der Algorithmus ist recht einfach wenn man die Komplexität und den Umfang des Internets betrachtet.
Hierbei ist:
PR(A) der PageRank der Seite A,
PR(Ti) der PageRank der Seiten T i, von denen ein Link auf die Seite A zeigt,
C(Ti) die Summe aller Links der Seite Ti und
d ein Dämpfungsfaktor (damping factor, mit 0 ≤ d ≤ 1).[52]
Das bedeutet, dass der PageRank einer Seite sich rekursiv aus dem PageRank der Seiten mit einem Link auf diese ergibt. Somit bewertet die PageRank-Methode die Beziehung einzelner Webseiten zueinander.
Die Gogglegründer gaben in „The Anatomy of a Large-Scale Hypertextual Web Search Engine[53] zwei intuitive Begründungen für den PageRank- Algorithmus:
1. In diesem Modell gibt es einen Zufallssurfer (engl. random surfer) welcher das Benutzerverhalten simuliert und sich zufällig Webseiten anschaut. Dabei folgt er den Links auf der Seite und geht niemals zurück. Auch interessieren ihn die Inhalte der Seite nicht. Der Dämpfungsfaktor gibt dabei die Wahrscheinlichkeit an, mit der es dem Surfer langweilig wird und er auf einer zufälligen Seite neu startet.
2. Eine Seite kann einen hohen PageRank haben, wenn viele Seiten oder wenige mit einem hohem PageRank auf sie verweisen. Dies begründet sich dadurch, dass es sich immer lohnt eine Seite zu besuchen, auf welche von vielen Plätzen im Netz verwiesen wird bzw. wenn von einer wichtigen Seite z.B. der Startseite von Yahoo! dort hin verlinkt wird.[54]
Aufgrund der Größe des Internets wird der PageRank iterativ berechnet, wobei jede Seite mit einem PageRank von 1 beginnt. In Abbildung 15 ist ein vereinfachtes Netz mit drei Seiten dargestellt. Die Seite A ist mit den Seiten B und C verlinkt. Die Seite B mit C und C mit der Seite A.
Abbildung 15 Beispiel Netz mit drei Seiten.[55]
In der Tabelle 1 sind die Berechnungen für 12 Iterationsschritte abgebildet, als Dämpfungsfaktor wird 0,5 gewählt, da die Berechnungen dann verständlicher sind. Es ist zu sehen, dass die Werte schnell konvergieren, so dass Google für das gesamte Internet mit ca. 100 Iterationen den PageRank berechnet.
Tabelle 1 Iteration des Beispielnetzes aus Abbildung 15.[56]
Abbildung 16 Google Toolbar.[57]
Im Jahr 2000 erweitert Google seine Toolbar[58] für den Internet Explorer um eine Funktion zur Darstellung des PageRanks.[59] Wie in Abbildung 16 zu sehen ist, wird der PageRank als Balken dargestellt, dieser Balken hat 11 Abstufungen (0 bis 10). Somit gibt der PageRank der Google Toolbar nicht den regulären PageRank wieder.
Um den PageRank in den Abstufungen der Toolbar darzustellen, muss dieser skaliert werden. Google veröffentlicht die genaue Skalierung nicht. Wahrscheinlich ist eine logarithmische Skalierung mit der Basis 6 oder 7. In Tabelle 2 ist zur logarithmischen Basis 6 und dem Dämpfungsfaktor d=0,85 eine mögliche Skalierung dargestellt.
Tabelle 2 PR-Darstellung in der Google Toolbar (logarithmische Basis 6 und d=0,85).[60]
Der maximale PageRank einer Seite lautet max(PR) = dN + (1-d) mit
N als Anzahl aller Webseiten und
d dem Dämpfungsfaktor.
Wenn man die Darstellung des PageRanks des Google Verzeichnisses[61] mit dem der Toolbar vergleicht (siehe Abbildung 17), sind Abschätzungen zum PageRank möglich, da das Google Verzeichnis den PageRank nur von 0 bis 7 abbildet.
Abbildung 17 Vergleich Google Toolbar (rot) mit Google Verzeichnis (blau).[62]
BadRank ist eine Methode die parallel zum PageRank den negativen Einfluss einer Webseite misst. Es wird angenommen das Google diese oder ein ähnliche...