Cloaking

Mithilfe des Cloaking (engl. „cloak“ für Deckmantel) werden Besuchern einer Website andere Inhalte präsentiert als den Webcrawlern von Suchmaschinen. Hierfür werden meist textbasierte Seiteninhalte dargestellt, die Maßnahmen der Suchmaschinenoptimierung bestmöglich umsetzen. Meist wird in diesem Zusammenhang auf die gestalterische Qualität der Website verzichtet. Inhalte werden dann speziell auf die Bedürfnisse der Suchmaschinen abgestimmt, um die Website innerhalb der Suchmaschinen Rankings möglichst weit oben zu positionieren.

Allgemeine Informationen

Cloaking bezeichnet eine HTML-Technik, die im Zusammenhang mit der Suchmaschinenoptimierung angewandt wird. Der Fokus liegt hierbei auf der Verbesserung des Rankings einer Website innerhalb der Ergebnisliste von Onlinesuchmaschinen. Das Ziel ist, Besuchern einer Website Inhalte zu präsentieren, die keinen Fokus auf Kriterien der Suchmaschinenoptimierung legen, sondern auf eine benutzerfreundliche und attraktive Gestaltung. Im Gegensatz hierzu werden den so genannten Suchmaschinen-Crawlern andere und optimierte Inhalte angezeigt, um das Suchmaschinenranking der jeweiligen Website zu verbessern. Cloaking ist eine Maßnahme der Suchmaschinenoptimierung, die das Ranking von Websites verbessern soll.

Crawler

Crawler sind automatisierte Programme, so genannte Bots, die das Internet selbstständig nach Inhalten durchsuchen. Dabei springen sie von Link zu Link, lesen den Quellcode von Websites aus und senden die darin enthaltenen Informationen an den Index der Suchmaschine. Dies dient der Einsortierung und Indexierung von Websites. Der Google Index beispielsweise umfasst die Gesamtheit aller von Google anerkannten Websites. Eine Seite, die nicht im Index gelistet ist, wird auch nicht im SERP, den Suchergebnisseiten, aufgeführt werden. Daher ist die Suchmaschinenoptimierung für jede Website ein nicht zu vernachlässigender Aspekt des Marketings.

Indexierung

Bei der Suche nach Websites mittels Onlinesuchmaschinen werden den Internetnutzern Vorschläge aus den Indices der Suchmaschinen vorgeschlagen. Ziel der Cloakings ist hierbei die Websites für Benutzer und Suchmaschinen unterschiedlich zu optimieren und ein möglichst hohes Ranking innerhalb der Indices zu erreichen. Da Crawler von Suchmaschine textbasierte Inhalte besser verarbeiten und indexieren können, werden Websites nach diesem Gesichtspunk hin optimiert. So können Websites für Nutzer mithilfe von multimedialen Inhalten, wie Bild- und Videomaterial, angepasst werden, ohne dass Crawler diese nicht auslesen und indexieren können. Somit kann eine Website nicht im Ranking der Indices von Suchmaschinen zurückfallen.

Richtlinien der Suchmaschinen

Cloaking wird aus diesem Grund auch als Tarnung verstanden, da diese Technik die eigentliche Webpräsenz verhüllt, um sie für Crawler von Suchmaschinen unsichtbar zu machen. Dargestellt werden dann nur suchmaschinenoptimierte Inhalte. Im Extremfall weichen die unterschiedlichen Inhalte für normale Nutzer und Crawler stark voneinander ab. Daher ist Cloaking ein Prozess, der den Richtlinien der meisten Suchmaschinen widerspricht. Cloaking wird aus diesem Verständnis heraus auch als Marken- oder Wettbewerbsverletzung bezeichnet. Suchmaschinen verfügen jedoch über eine Vielzahl an Tools, die auch multimediale Inhalte besser verarbeiten und indexieren können. Somit verringert sich die Option Cloaking langfristig anzuwenden. Der Gebrauch von Cloaking-Maßnahmen kann bei seiner Aufdeckung zum dauerhaften Ausschluss auf den Indices der Suchmaschinen führen.

Cloaking in der Praxis

Cloaking lässt sich in zwei Bereiche unterteilen. Ein Server erkennt aufgrund verschiedener Systematiken, ob ein User oder ein Bot auf Daten zugreifen will. Bei dem IP-Cloaking werden Besucher einer Website abhängig von ihrer IP-Adresse auch verschiedene Varianten der Website geleitet. Das user agent Cloaking identifiziert den user agent, meist den Browser, des Besuchers und präsentiert, abhängig von diesem, verschiedene Inhalte der Website. Suchmaschinen-Crawler geben sich also als solche zu erkennen, sodass eine Umleitung auf die suchmaschinenoptimierte Website kein Problem darstellt. Crawler verwenden mittlerweile jedoch übliche Browserkennung und können somit nicht mehr als solche erkannt werden. Die Crawler agieren als normale User und decken den Einsatz von Cloaking auf.

Session IDs

Je nachdem mit welchem Motivation ein Websitebetreiber Cloaking betreibt, kann dies als legal oder illegal eingestuft werden. Cloaking widerspricht den Richtlinien der Suchmaschinen, wenn es gebraucht wird, um bewusst zu manipulieren und Einfluss auf die Rankings der Suchmaschinen zu nehmen. Cloaking, bei denen der eigentliche Inhalt nicht verändert, sondern nur suchmaschinenfreundlicher gestaltet wird, sind in der Praxis unproblematisch. Diese Art der Cloakings wird bei der Verwendung von Session IDs angewandt.

Benutzerkennung per URL

Websites benutzen zur Identifikation des Benutzers eine spezielle Benutzererkennung in der URL. Diese führt beim Crawling der Website jedoch zu Problemen, da sie nicht auslesbar und somit nicht indexierbar sind. Das bedeutet, dass dieser Seiten meist ignoriert und nicht im Verzeichnis der Suchmaschinen aufgelistet werden. Suchmaschinen erhalten deswegen eine verkürzte und vereinfachte URL, um dieses Problem zu beheben. Auch in diesem Fall handelt es sich um Cloaking, welches von den Suchmaschinen jedoch nicht sanktioniert wird.

Sonderfall Geotargeting

Auch das Geotargeting – das Ermitteln der IP-Adresse und eine entsprechend angepasste Reaktion auf den Standort des Benutzers ­– kann als regelkonformes Cloaking betrachtet werden. Denn hierbei handelt es sich darum, eine möglichst hohe Benutzerfreundlichkeit aufgrund der Informationen aus der IP-Adresse zu gewährleisten. Ähnlich verhält es sich bei dem Abrufen einer Website mit einem mobilen Endgerät. Dabei stellt die Website fest, dass es sich nicht um einen klassischen Websitennutzer handelt und liefert ihm eine kompaktere Version der dargestellten Inhalte, die für kleinere Bildschirme besser geeignet sind. Das Entscheidende ist, dass der Suchmaschinen-Crawler wie ein Desktop-Nutzer behandelt wird und keine speziellen Reaktionen auf den Crawler erfolgen.

Wir freuen uns auf Ihr Projekt. Kontaktieren Sie uns!
Unverbindliche Erstanalyse

Beratung vereinbaren