Ganz schön bunt

Laden Sie jetzt stimmige Farbwelten für Ihre Webseiten herunter - kostenlos

Hier klicken und mehr erfahren

Neu: Inspirationen für Webdesigner

Entdecken Sie die schönsten Seiten im Netz

Hier klicken und mehr erfahren

Des Robotbetrügers Tarnmantel: Cloaking

Wohl die meisten Webseitenbetreiber kennen die Möglichkeit, einkommende Besucher nach deren Browser zu differenzieren und auf entsprechend optimierte Seiten weiterzuleiten. Der Surfer mit dem Internet Explorer bekommt also nicht das zu sehen, was der Nutzer des Netscape Navigators sieht. Eine sinnvolle Sache, die allerdings auch in anderer Hinsicht genutzt werden kann.

Wo immer es eine einfache Möglichkeit gibt, Suchmaschinenroboter bei der Indizierung der eigenen Seiten zu beeinflussen, fehlen nicht lange Lösungen, dies auch wirklich umzusetzen. Beim so genannten "Cloaking" (engl. "Ummantelung", "Verhüllung", "Tarnung") werden die leicht zu identifizierenden Automaten der Suchmaschinen, die dafür zuständig sind, in regelmäßigen Abständen Webseiten zu durchforsten und deren Inhalt aufzunehmen, "in die Irre geleitet", indem speziell für sie angefertigte Inhalte angezeigt werden.

In der Praxis kann man sich dies wie folgt vorstellen: Während der Otto Normalsurfer auf das normale Webangebot mit wenig Inhalt geleitet werden, werden alle Roboter, die sich mit ihnen fest verbundenen Namen beim Webserver anmelden (wer zum Beispiel "Googlebot/1.0 (googlebot(at)googlebot.com)" in seinen Logfiles findet, weiß, dass der Indizierroboter der Suchmaschine "Google" vorbeigeschaut hat), ihren Vorlieben entsprechend auf speziell für sie optimierte Seiten weitergeleitet, die dann im Normalfall außer den dringend benötigten Keywords kaum Inhalte bieten.

Serverseitig ablaufende Programme auf PHP oder Perlbasis übernehmen meist die Aufgabe des "Aussiebens" und der Vorspielung der Seiten. Diese Programme sind meist kostenpflichtig und liegen im Bereich zwischen wenigen hundert und mehreren tausend Dollar, ganz abhängig von deren Funktionsweise und deren Nutzen. Während die günstigeren auf real vorhandene Seiten umleiten, die dann mittels Link auf die für Surfer wirklich relevanten Seiten verweisen, erzeugen die teureren Varianten für die automatischen Besucher Extraseiten, die für die Zeit ihres Besuches angelegt und danach gelöscht werden. Zugriffe auf diese dann nicht mehr in dieser Form existierenden Seiten werden dann scriptgesteuert auf die eigentlich benötigten Seiten umgeleitet.

Nahezu jeder, der schon einmal eine Suchmaschine verwendet hat, ist diesen "getarnten" Seiten begegnet: Der Suchindex wirft einige Seiten aus, die den gesuchten Begriff beinhalten, aber bei deren Anzeige ist nichts vom Gesuchten zu finden, selbst das sonst so beliebte Manipulieren der Metadaten weist nicht darauf hin.

Ob Cloaking nun eingesetzt wird oder nicht, ist jedem Webmaster selbst überlassen. Sicherlich gibt es auch nützliche Anwendungsbereiche, zum Beispiel bei dynamisch generierten Seiten, mit denen Suchmaschinen sonst mitunter Probleme haben. Man sollte sich aber immer vor Augen halten, dass nur ein zufriedener Besucher ein guter Besucher ist, denn er kommt wieder - ein fehlgeleiteter Surfer wird mit an Sicherheit grenzender Wahrscheinlichkeit nicht wiederkehren.

Weitere Artikel zu diesem Thema:


Zurück zum Inhaltsverzeichnis

© Grammiweb.de Internetlösungen. Alle Rechte vorbehalten. Stand: 21.10.2018
Seitenanfang - Sponsor werden - Datenschutz - Medien - Impressum - Werbung - Hilfe - Kontakt