Cloaking

Inhaltsverzeichnis

 

Cloaking

 

Cloaking ist ein Begriff, der mindestens denjenigen bekannt ist, die versuchen, Suchmaschinen zu täuschen und zu manipulieren. Dabei handelt es sich aber keineswegs um einen erstrebenswerten Vorgang. Diese Methode des Black Hat SEO verstößt gegen Richtlinien und wird bis zur endgültigen Löschung aus dem Index abgestraft.


Der Beitrag gibt Aufschluss über die wichtigsten Aspekte, die zum Thema Cloaking zu beachten sind.

 

Definition: Cloaking

 

Der Begriff „Cloaking stammt aus dem Englischen und kann mit „Verhüllungübersetzt werden. Er lässt sich in der Suchmaschinenoptimierung verorten und gehört zum Black Hat SEO. Es geht darum, Crawlern einer Suchmaschine andere ContentVersionen anzuzeigen als tatsächlichen Usern, welche die Seite besuchen.

 

Crawler durchforsten gewissermaßen Websites, woraus Indexierung und Ranking innerhalb der Suchergebnisse (SERPs) folgen. In diesen findet sich auch das angestrebte Ziel. Durch die Manipulation bzw. Täuschung der Crawler soll eine höhere Positionierung der Seite innerhalb der SERPs erreicht werden.

 

Ging es beim Cloaking ursprünglich nicht um die Täuschung und Optimierung der Platzierung, wird dieser Vorgang mittlerweile immer öfter zu diesem Zweck genutzt und von Suchmaschinen abgestraft.

 

 

Funktion von Cloaking

 

Es ist bereits angesprochen worden, dass beim Cloaking fokussiert wird, Crawlern und Usern unterschiedliche Inhalte unter derselben URL anzuzeigen. Dabei soll für beide Parteien eine unterschiedliche Optimierung stattfinden.

 

Für die Suchmaschinen soll eine einseitige Suchmaschinenoptimierung vollzogen werden, während es für anderweitige Besuchende hauptsächlich um relevanten Content und ansprechende Gestaltungen geht.

 

Diese Gestaltung ist eines der Beispiele für Cloaking: Medien und multimediale Designs können von Google schlechter erkannt, verarbeitet und indexiert werden als reine Textformate. Ein Anliegen ist daher beispielsweise, eine Struktur zu erhalten, die Crawlern die medialen Darstellungen als reine Texte präsentiert, während sie anderen Usern als ansprechende Gestaltung erhalten bleibt.

 

So werden attraktive Ausarbeitungen möglich, ohne das Risiko eingehen zu müssen, von Google durch die schlechte Verarbeitungsmöglichkeit in der Positionierung zu sinken. Wobei auch anzumerken ist, dass sich Techniken von Google stetig verbessern und mediale Bausteine keine großen Hindernisse mehr im Crawling darstellen.

 

Weitere Arten finden sich im folgenden Abschnitt.

 

 

Arten

 

Drei Arten von Cloaking sind in der Praxis besonders verbreitet: IPDelivery, Agent Name Delivery und der versteckte Text. Diese sollen hier in ihren wichtigsten Aspekten vorgestellt werden.

 

Innerhalb der IPDelivery wird die IPAdresse der Besuchenden einer Seite fokussiert unabhängig davon, ob es sich um Menschen oder Maschinen bzw. Softwares handelt. Der Grund dafür ist, dass Crawlern andere Elemente ausgespielt werden sollen als sonstigen Usern. Wobei aber  zunächst erkannt werden muss, um wen es sich genau handelt. Zu diesem Zweck kann die IPAdresse hinzugezogen werden. Wenn die standardisierte Adresse von entsprechenden Softwares bekannt ist, kann direkt eingestellt werden, dass dieser ein anderer, suchmaschinenoptimierter Content präsentiert wird.

 

Die Agent Name Delivery funktioniert wie die oben beschriebene Technik, wobei es nicht um IPAdressen geht, sondern um Agent Names. Die Aufgabe ist es, zu ermitteln, welcher Useragent gerade auf eine bestimmte Domain zugreift.
Spezifischer steht die Frage im Fokus: Handelt es sich um einen Menschen oder um einen Bot? Handelt es sich um einen Bot, kann spezifischer und differenzierter Content ausgespielt werden, um das Crawling zu beeinflussen. Daher verwenden auch immer mehr Suchmaschinen gewisse Tarnungen für ihre Crawler, um Cloaking zu vermeiden.

 

 

Der versteckte Text ist eine wesentlich simplere Methode, wenn auch Unstimmigkeitüber die tatsächliche Zugehörigkeit zu diesem herrscht. Das liegt daran, dass hierbeiprinzipiell Usern und Crawlern dieselben Inhalte angezeigt werden. Menschliche Besucher können diese allerdings nicht sehen.

 

Ein beliebtes Beispiel findet sich in der Nutzung weißer Schrift auf weißem Hintergrund. Was für das Auge unsichtbar bleibt, wird von Softwares dennoch erfasst und für die Indexierung berücksichtigt.

 

Black Hat Seo

 

Cloaking ist zu dem sogenannten Black Hat SEO zu zählen. Dieses beschreibt bestimmte Maßnahmen, Strategien und Spam-Methoden, die die eigene Positionierung innerhalb der Suchergebnisse optimieren soll. Es geht folglich um eine
Manipulation der Indexierungsprozesse, was die Zugehörigkeit des Cloakings deutlich macht.

 

Durch das Cloaking wird eine Verhüllung des eigenen Contents erzeugt, um beispielsweise Google zu täuschen. Dabei kann es sogar dazu kommen, dass sich nicht nur stellenweite Unterschiede ergeben: theoretisch können Usern vollkommen andere Inhalte präsentiert werden als den Bots.

 

Logisch scheint es da, dass ebendiese Methoden in der Regel gegen die Richtlinien verstoßen und entsprechende Seiten bei Enttarnung abgestraft werden. Im schlimmsten Fall wird dieser Versuch im Zuge der Kommerzialisierung von
Onlineräumen auch als eine Verletzung des Wettbewerbs verstanden.

 

Diese Sachverhalte können so weit führen, dass Google Strafen verhängt, die die endgültige Streichung aus dem Index beinhalten. Um wieder in Suchergebnissen angezeigt zu werden, müsste folglich eine neue Domain eröffnet werden.

 

 

Cloaking Vermeidung: Tipps

 

Um hier präventiv zu arbeiten und die eigene lschliche Bestrafung zu vermeiden, sollte immer sichergestellt werden, dass Inhalte konsistent sind und keinerlei Abhängigkeit zu IPAdressen oder Agent Names besteht abgesehen von
notwendigen und zulässigen Verfahren für die Suchmaschinenoptimierung.

 

Empfehlenswert ist an dieser Stelle etwa, multimediale Bestandteile mit geeigneten Schlagwörtern und Tags zu versehen, die auch von Crawlern einfach aufgenommen und verarbeitet werden können. Auf diese Weise wird auch keine schlechtere Listung bei Suchanfragen riskiert.

 

Damit wird final auch der Dreh und Angelpunkt von SEO angesprochen: Optimale Beiträge zu liefern, die sowohl ideal für menschliche User wie auch geeignet für Bots sind. Hier geht es um inhaltliche Relevanz, Gestaltung, Ladezeiten, BackLinkStrukturen, mobile Optimierungen, Verweildauern und viele weitere Faktoren.

 

Es gibt auch über Google die Möglichkeit, sich bei vorhandenem Konto die eigene Seite aus der Perspektive eines Bots anzeigen zu lassen. So kann festgestellt werden, ob ungewollte Probleme bestehen, die behoben werden sollten.

 

Ähnliche Beiträge

 

💡 Cache

💡Bad Neighbourhood

💡Canonical Tag

💡Backend

💡Apache Server

Sie mögen den artikel?

Auf Facebook teilen
Auf Twitter teilen
Auf Linkedin teilen
Auf Pinterest teilen
Bekim

Bekim