Cloaking

Inhaltsverzeichnis

Cloaking

Cloaking ist ein Begriff, der mindestens denjenigen bekannt ist, die versuchen,
Suchmaschinen zu täuschen und zu manipulieren. Dabei handelt es sich aber
keineswegs um einen erstrebenswerten Vorgang: diese Methode des Black Hat SEO
verstößt gegen Richtlinien und wird bis zur endgültigen Löschung aus dem Index
abgestraft.


Der Beitrag gibt Aufschluss über die wichtigsten Aspekte, die zum Thema Cloaking zu
beachten und vor allem zu vermeiden sind.

Definition: Cloaking

Der Begriff „Cloaking stammt aus dem Englischen und kann etwa mit „Verhüllung
übersetzt werden. Er lässt sich in der Suchmaschinenoptimierung verorten und
gehört zu dem sogenannten Black Hat SEO. Es geht darum, Crawlern einer
Suchmaschine andere ContentVersionen anzuzeigen als tatsächlichen Usern, die die
Seite besuchen.

Crawler durchforsten gewissermaßen Websites, woraus Indexierung und Ranking
innerhalb der Suchergebnisse (SERPs) folgen. In diesen findet sich auch das
angestrebte Ziel: durch die Manipulation oder auch Täuschung der Crawler soll eine
höhere Positionierung der Seite innerhalb der SERPs erreicht werden.

Ging es beim Cloaking ganz ursprünglich auch nicht um die Täuschung und
Optimierung der Platzierung, wird dieser Vorgang mittlerweile immer öfter zu genau
diesem Zweck genutzt und folglich von Suchmaschinen abgestraft.

Funktion von Cloaking

Es ist bereits angesprochen worden, dass beim Cloaking fokussiert wird, Crawlern und
Usern unterschiedliche Inhalte unter ein und derselben URL anzuzeigen. Dabei soll für
beide Parteien eine unterschiedliche Optimierung stattfinden.

Für die Suchmaschinen soll logischerweise eine sehr einseitige
Suchmaschinenoptimierung vollzogen werden, während es für anderweitige
Besuchende hauptsächlich um relevanten Content und ansprechende Gestaltungen
geht.

Diese Gestaltung ist eines der Beispiele für Cloaking: Medien und multimediale
Designs können etwa von Google schlechter erkannt, verarbeitet und indexiert
werden als reine Textformate. Ein Anliegen ist an dieser Stelle daher beispielsweise,
eine Struktur zu erhalten, die Crawlern die medialen Darstellungen als reine Texte
präsentiert, während sie anderen Usern als ansprechende Gestaltung erhalten bleibt.

So werden attraktive Ausarbeitungen möglich, ohne das Risiko eingehen zu müssen,
von Google durch die schlechte Verarbeitungsmöglichkeit in der Positionierung zu
sinken. Wobei auch anzumerken ist, dass sich Techniken von Google stetig verbessern
und auch mediale Bausteine keine großen Hindernisse mehr im Crawling darstellen.

Weitere Arten finden sich im folgenden Abschnitt.

Cloaking Arten

Drei Arten von Cloaking sind in der Praxis besonders verbreitet: IPDelivery, Agent
Name Delivery und der versteckte Text. Diese sollen hier in ihren wichtigsten
Aspekten vorgestellt werden.

Innerhalb der IPDelivery wird die IPAdresse der Besuchenden einer Seite fokussiert
unabhängig davon, ob es sich um Menschen oder Maschinen bzw. Softwares
handelt. Der Grund dafür ist, dass Crawlern andere Elemente ausgespielt werden
sollen als sonstigen Usern, wobei aber zunächst erkannt werden muss, um wen es
sich genau handelt. Zu diesem Zweck kann die IPAdresse hinzugezogen werden.
Wenn die standardisierte Adresse von entsprechenden Softwares bekannt ist, kann
direkt eingestellt werden, dass dieser anderer, suchmaschinenoptimierter Content
präsentiert wird.

Die Agent Name Delivery funktioniert wie die oben beschriebene Technik, wobei es
nicht um IPAdressen geht, sondern um Agent Names. Die Aufgabe ist es, zu
ermitteln, welcher Useragent gerade auf eine bestimmte Domain zugreift.
Spezifischer steht die Frage im Fokus: Handelt es sich um einen Menschen oder um
einen Bot? Handelt es sich um einen Bot, kann spezifischer und differenzierter
Content ausgespielt werden, um das Crawling zu beeinflussen. Daher verwenden
auch immer mehr Suchmaschinen gewisse Tarnungen für ihre Crawler, um Cloaking
zu vermeiden.

Der versteckte Text ist eine wesentlich simplere Methode, wenn auch Unstimmigkeit
über die tatsächliche Zugehörigkeit zu diesem herrscht. Das liegt daran, dass hierbei
prinzipiell Usern und Crawlern dieselben Inhalte angezeigt werden. Menschliche
Besucher können diese allerdings nicht sehen.

Ein beliebtes Beispiel findet sich in der Nutzung weißer Schrift auf weißem
Hintergrund. Was für das Auge unsichtbar bleibt, wird von Softwares dennoch erfasst
und für die Indexierung berücksichtigt.

Cloaking und Black Hat Seo

Cloaking ist zu dem sogenannten Black Hat SEO zu zählen. Dieses beschreibt
bestimmte Maßnahmen, Strategien und Spam-Methoden, die die eigene
Positionierung innerhalb der Suchergebnisse optimieren soll. Es geht folglich um eine
Manipulation der Indexierungsprozesse, was die Zugehörigkeit des Cloakings deutlich
macht.

Durch das Cloaking wird eine Verhüllung des eigenen Contents erzeugt, um
beispielsweise Google zu täuschen. Dabei kann es sogar dazu kommen, dass sich
nicht nur stellenweite Unterschiede ergeben: theoretisch können Usern vollkommen
andere Inhalte präsentiert werden als den Bots.

Logisch scheint es da, dass ebendiese Methoden in der Regel gegen die Richtlinien
verstoßen und entsprechende Seiten bei Enttarnung abgestraft werden. Im
schlimmsten Fall wird dieser Versuch im Zuge der Kommerzialisierung von
Onlineräumen auch als eine Verletzung des Wettbewerbs verstanden.

Diese Sachverhalte können so weit führen, dass Google Strafen verhängt, die die
endgültige Streichung aus dem Index beinhalten. Um wieder in Suchergebnissen
angezeigt zu werden, müsste folglich eine neue Domain eröffnet werden.

Cloaking Vermeidung: Tipps

Um hier präventiv zu arbeiten und die eigene lschliche Bestrafung zu
vermeiden, sollte immer sichergestellt werden, dass Inhalte konsistent sind und
keinerlei Abhängigkeit zu IPAdressen oder Agent Names besteht abgesehen von
notwendigen und zulässigen Verfahren für die Suchmaschinenoptimierung.

Empfehlenswert ist an dieser Stelle etwa, multimediale Bestandteile mit geeigneten
Schlagwörtern und Tags zu versehen, die auch von Crawlern einfach aufgenommen
und verarbeitet werden können. Auf diese Weise wird auch keine schlechtere Listung
bei Suchanfragen riskiert.

Damit wird final auch der Dreh und Angelpunkt von SEO angesprochen: Optimale
Beiträge zu liefern, die sowohl ideal für menschliche User wie auch geeignet für Bots
sind. Hier geht es um inhaltliche Relevanz, Gestaltung, Ladezeiten, BackLink
Strukturen, mobile Optimierungen, Verweildauern und viele weitere Faktoren.

Es gibt auch über Google die Möglichkeit, sich bei vorhandenem Konto die eigene
Seite aus der Perspektive eines Bots anzeigen zu lassen. So kann festgestellt werden,
ob ungewollte Probleme bestehen, die behoben werden sollten.

Sie mögen den artikel?

Share on facebook
Auf Facebook teilen
Share on twitter
Auf Twitter teilen
Share on linkedin
Auf Linkedin teilen
Share on pinterest
Auf Pinterest teilen
Bekim

Bekim