Carsten Schurig

Geschäftsführer
+49 531 213605500

Jetzt Termin vereinbaren!

    Ich habe die Datenschutzerklärung gelesen und erkläre mich damit einverstanden, dass die von mir im Kontaktformular eingegebenen Daten elektronisch erhoben und gespeichert werden.

    Jetzt Termin vereinbaren!

    Google Webmaster Richtlinien

    Definition

    Die Google Webmaster Richtlinien umfassen einen Katalog an Maßnahmen zur Webseitenoptimierung. Die Richtlinien gewährleisten eine unkomplizierte Aufnahme einer Webseite in den Index, eine umfassendere Indexierung und dementsprechend eine bessere Platzierung in den Suchergebnissen. Darüber hinaus führen die Guidelines auch aus, unter welchen Umständen Google Maßnahmen als Verstöße gegen die Richtlinien bewertet und in welchem Rahmen Abstrafungen festgelegt werden. Neben allgemeinen Maßnahmen, wie die Meldung der Seite an Google, führen die Guidelines auch Inhaltsrichtlinien und Qualitätsrichtlinien auf. Diese dienen neben der Optimierung des PageRank auch der Verbesserung der Usability.

    Inhaltsrichtlinien

    Neben allgemeinen Maßnahmen, wie die Meldung der Webseite an Google oder das Anlegen einer XML-Sitemap mit allen Unterseiten innerhalb der Google Search Console, gibt es auch spezifische Maßnahmen, die sich auf den Inhalt und die Gestaltung der Webseite beziehen.

    Um den Google Webmaster Richtlinien zu entsprechen und einen entsprechend guten PageRank zu erzielen, sollte eine Webseite zunächst strukturiert sein. Durch eine klare Navigation und eine einheitliche Gestaltung der Unterseiten verbessert sich neben der leichteren Indexierung durch Bots und Crawler vor allem auch die Usability. Darüber hinaus sollte der gesamte Content nicht nur auf bestimmte Keywords hin optimiert werden, sondern vor allem den Inhalt der Webseite wiederspiegeln. Webmaster, die ihren Content nur auf relevante Keywords anpassen, vernachlässigen dabei oftmals den Informationsgehalt innerhalb des Textes.

    In Hinblick auf die Linkstruktur empfiehlt Google, dass jede Seite einer Webseite mit mindestens einem In-Link erreichbar sein sollte. Dies unterstützt vor allem die Arbeit der Crawler, da diese jedem einzelnen Link folgen. Deswegen sollte auch darauf geachtet werden, dass die Anzahl der Links auf einer einzelnen Seite in einem gewissen Rahmen bleibt, um die Arbeit der Crawler nicht zu behindern. Auch die Erstellung einer Art Übersichtsseite, auf der alle Seiten innerhalb der Domain verlinkt sind, und die Prüfung der ausgehenden Links auf Fehler wird empfohlen.
    Da die Crawler vor allem Texte und Textbausteine indexieren, gilt es, alle wichtigen Informationen in Textform unterzubringen, um eine umfassende Indexierung der Webseite zu ermöglichen. Bilder und Bilddateien können mithilfe von ALT-Attributen für die Indexierung optimiert werden. Können alle Inhalte einer Webseite erfasst werden, kann die Seite innerhalb der organischen Suche besser ranken.

    Qualitätsrichtlinien und technische Optimierung

    Unter dem Überbegriff Qualitätsrichtlinien fasst Google innerhalb der Webmaster Richtlinien alle gängigen Manipulationsversuche auf. Im Rahmen der sogenannten Black Hat SEO versuchen einige Webseitenbetreiber das Ranking ihrer Webseite durch unlautere Praktiken wie Spam oder Dublicate Content zu verbessern. Diese Manipulationsversuche werden dementsprechend abgestraft, indem eine Abwertung der Webseite oder in harten Fällen sogar eine Entfernung vom Index verhängt wird. Auch die selbstständige Meldung von Spam-Webseiten wird thematisiert.

    Durch ein umfassendes Testing der Webseite mithilfe eines textbasierten Browsers können alle Funktionalitäten der Webseite überprüft werden. Darüber hinaus kann so auch getestet werden, ob ein Bot die Seite umfassend indexieren kann, ohne von Session-IDs oder anderen Parametern irrgeführt zu werden. Auch die Funktionen innerhalb unterschiedlicher Browser sollten eingehend überprüft werden. Da auch die Ladegeschwindigkeit einen wichtigen Rankingfaktor darstellt, sollten Webmaster ihre Webseite nicht nur inhaltlich, sondern auch in Hinblick auf die technische Performance optimieren.

    Des Weiteren spielt auch der Umgang mit der robots.txt-Datei eine Rolle. Es handelt sich um eine Textdatei, die festlegt, welche Inhalte einer Webseite gecrawlt werden sollen und welche nicht. Dementsprechend erleichtern diese Dateien die Arbeit der Bots, indem bestimmte Verzeichnisse nicht ausgelesen und Suchmaschinennutzern keine irrelevanten Inhalte angezeigt werden. Darüber hinaus können mit der Datei auch AdSense-Inhalte indiziert werden.

    Über den Autor
    Arne Chananewitz
    Arne Chananewitz ist Head of SEO der Löwenstark Online-Marketing GmbH. Als gelernter Fachinformatiker für Anwendungsentwicklung schlägt sein Herz für Blogs, SEO, Games und Hardware.

     

    Auch interessant:
    Anfrage & Kontakt
    Petzvalstraße 38,
    38104 Braunschweig
    Braunschweig
    Petzvalstraße 38,
    38104 Braunschweig
    Leipzig
    Täubchenweg 8,
    04317 Leipzig
    Berlin
    Karl-Marx-Allee 91a,
    10243 Berlin
    Halle (Saale)
    Mansfelder Str. 56,
    06108 Halle (Saale)
    München
    Max-Planck-Str. 10,
    85716 Unterschleißheim
    Mainz
    Am alten Weg 2,
    55127 Mainz
    Köln
    Karlheinz-Steimel-Weg 15,
    50969 Köln
    Bielefeld
    Westheermannstr. 9,
    33332 Gütersloh
    Zürich
    Hardturmstrasse 161,
    CH-8005 Zürich
    Wien
    Mooslackengasse 17,
    A-1190 Wien
    Alle Standorte
    Jetzt unverbindlich anfragen

      Ich habe die Datenschutzerklärung gelesen und erkläre mich damit einverstanden, dass die von mir eingegebenen Daten elektronisch erhoben und gespeichert werden.