Google Webmaster Richtlinien

Um die Platzierung einer Webseite in den Suchergebnissen von Google zu gewährleisten, muss die Seite den Google Webmaster Richtlinien entsprechen. Die Einhaltung der Richtlinien gewährleistet dabei die dauerhafte Platzierung einer Webseite in den Suchergebnissen. Verstöße und Manipulationsversuche werden dementsprechend oftmals durch die Entfernung der Webseite aus dem Index abgestraft.

Definition

Die Google Webmaster Richtlinien umfassen einen Katalog an Maßnahmen zur Webseitenoptimierung. Die Richtlinien gewährleisten eine unkomplizierte Aufnahme einer Webseite in den Index, eine umfassendere Indexierung und dementsprechend eine bessere Platzierung in den Suchergebnissen auf der Search Engine Result Page (SERP). Darüber hinaus führen die Guidelines auch aus, unter welchen Umständen Google Maßnahmen als Verstöße gegen die Richtlinien bewertet und in welchem Rahmen Abstrafungen festgelegt werden. Die Richtlinien gelten dabei für alle Webseiten, die im Index der Suchmaschine eingetragen sind.

Inhaltsrichtlinien

Neben allgemeinen Maßnahmen, wie die Meldung der Webseite an Google oder das Anlegen einer XML-Sitemap mit allen Unterseiten innerhalb der Google Search Console, gibt es auch spezifische Maßnahmen, die sich auf den Inhalt und die Gestaltung der Webseite beziehen.

Um den Google Webmaster Richtlinien zu entsprechen und einen entsprechend guten PageRank zu erzielen, sollte eine Webseite zunächst strukturiert sein. Durch eine klare Navigation und eine einheitliche Gestaltung der Unterseiten verbessert sich neben der leichteren Indexierung durch Bots und Crawler vor allem auch die Usability. Darüber hinaus sollte der gesamte Content nicht nur auf bestimmte Keywords hin optimiert werden, sondern vor allem den Inhalt der Webseite wiederspiegeln. Webmaster, die ihren Content nur auf relevante Keywords anpassen, vernachlässigen dabei oftmals den Informationsgehalt innerhalb des Textes.

In Hinblick auf die Linkstruktur empfiehlt Google, dass jede Seite einer Webseite mit mindestens einem In-Link erreichbar sein sollte. Dies unterstützt vor allem die Arbeit der Crawler, da diese jedem einzelnen Link folgen. Deswegen sollte auch darauf geachtet werden, dass die Anzahl der Links auf einer einzelnen Seite in einem gewissen Rahmen bleibt, um die Arbeit der Crawler nicht zu behindern. Auch die Erstellung einer Art Übersichtsseite, auf der alle Seiten innerhalb der Domain verlinkt sind, und die Prüfung der ausgehenden Links auf Fehler wird empfohlen. Da die Crawler vor allem Texte und Textbausteine indexieren, gilt es, alle wichtigen Informationen in Textform unterzubringen, um eine umfassende Indexierung der Webseite zu ermöglichen. Bilder und Bilddateien können mithilfe von ALT-Attributen für die Indexierung optimiert werden. Können alle Inhalte einer Webseite erfasst werden, kann die Seite innerhalb der organischen Suche besser ranken.

Qualitätsrichtlinien und technische Optimierung

Unter dem Überbegriff Qualitätsrichtlinien fasst Google innerhalb der Webmaster Richtlinien alle gängigen Manipulationsversuche auf. Im Rahmen der sogenannten Black Hat SEO versuchen einige Webseitenbetreiber das Ranking ihrer Webseite durch unlautere Praktiken wie Spam oder Dublicate Content zu verbessern. Diese Manipulationsversuche werden dementsprechend abgestraft, indem eine Abwertung der Webseite oder in harten Fällen sogar eine Entfernung vom Index verhängt wird. Auch die selbstständige Meldung von Spam-Webseiten wird thematisiert.

Durch ein umfassendes Testing der Webseite mithilfe eines textbasierten Browsers können alle Funktionalitäten der Webseite überprüft werden. Darüber hinaus kann so auch getestet werden, ob ein Bot die Seite umfassend indexieren kann, ohne von Session-IDs oder anderen Parametern irrgeführt zu werden. Auch die Funktionen innerhalb unterschiedlicher Browser sollten eingehend überprüft werden. Da auch die Ladegeschwindigkeit einen wichtigen Rankingfaktor darstellt, sollten Webmaster ihre Webseite nicht nur inhaltlich, sondern auch in Hinblick auf die technische Performance optimieren.

Des Weiteren spielt auch der Umgang mit der robots.txt-Datei eine Rolle. Es handelt sich um eine Textdatei, die festlegt, welche Inhalte einer Webseite gecrawlt werden sollen und welche nicht. Dementsprechend erleichtern diese Dateien die Arbeit der Bots, indem bestimmte Verzeichnisse nicht ausgelesen und Suchmaschinennutzern keine irrelevanten Inhalte angezeigt werden. Darüber hinaus können mit der Datei auch AdSense-Inhalte indiziert werden.

Auch interessant: