Cloaking – saubere Lösung oder Blackhat-Methode?

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Ein uraltes Black-Hat-Thema wird derzeit erneut diskutiert: Cloaking. Dabei geht es darum, dem Suchmaschinencrawler andere Inhalte zu liefern als den Besuchern. Früher, als On-Page-Faktoren bei Suchmaschinen wie Fireball oder AltaVista noch extrem wichtig waren, wurde Cloaking recht häufig eingesetzt und hat seitdem einen negativen Beigeschmack. Heute hingegen empfiehlt Google seinen Newszulieferern für Google News sogar öffentlich, Inhalte zu cloaken und gibt freundlicherweise direkt das IP-Netz des Googlecrawlers – 66.249.64.0/20, also die 4.096 IP-Adressen von 66.249.64.0 bis 66.249.79.255 – bekannt. Auch hört man häufiger, dass das „Wegcloaken“ von Session-IDs nicht nur toleriert sondern von Google sogar empfohlen wird.

Wie sollte man es also derzeit mit Cloaking halten? Solange dem User prinzipiell der gleiche Inhalt geliefert wird, wie dem Suchmaschinencrawler, ist es derzeit wohl ein gangbarer Weg, so keine anderen Möglichkeiten verfügbar sind. Denke ich beispielsweise an Intershop-Installationen, so bleibt einem SEO häufig kein anderer Weg, als Sessions-IDs dieses Shopmonsters für Suchmaschinen zu entfernen, um eine Aufnahme in den Index zu ermöglichen oder möglichen Duplicate Content durch Sessions zu verhindern. Allerdings sollte man sich auf der Risiken und des Aufwandes bewusst sein: Cloaking steht nach wie vor auf der „Don’t do it“-Liste der Spamhunter aus Mountain View und auch das Pflegen der IP-Listen, um sinnvolles Cloaking zu betreiben, kann zeitintensiv werden – irgendein koreanischer Robot, der sich einmal in einer Session-ID-Schleife festgefressen hat, kann einem die ganze Nacht verderben, wenn man gerade das Handy mit den Nachrichten des Server-Monitorings hat. Also: Als letzte Möglichkeit in Erwägung ziehen, aber zuerst alle anderen Varianten ausprobieren. Die Finger lassen würde ich von sowas, wie es große Wissenschaftsverlage – gerade in den USA – derzeit betreiben: dort werden die PDFs der Publikationen an den Googlebot verfüttert, sobald aber ein richtiger Besucher auftaucht, soll gezahlt werden.

Ähnliche Beiträge
Kommentare
Avatar Ron   
4. August 2007, 12:12

Hi Sistrix,
meines Erachtens hat das Entfernen der Session ID’s aus der URL per Cloaking einen großen Nachteil. Da kein „natürliches Wesen“ diese veränderten URL’s sieht, werden Links doch immer auf die falschen URL’s gesetzt.

An der Stelle ist doch mod_rewrite die bessere Alternative, auch wenn es zu Lasten der Performance gehen kann.

Wie siehst du das?

Avatar Jonathan   
4. August 2007, 19:57

Wie siehts dann damit aus, wenn du für den Bot die Backlinks cloakst? Wäre dann ja auch eine Möglichkeit. Da würden die natürlichen Links mit Session-Id ja auch ziehen.

Grüße

Avatar Content Link   
7. August 2007, 02:25

Also ich bin grundsätzlich gegen Cloaking, aber wie meinst du das mit „Backlinks cloaken“? Die Backlinks so setzen, dass sie für den User unsichtbar sind? Was genau soll das bringen?

Avatar Olli   
7. August 2007, 18:40

@Content Link: Was genau soll das bringen?

Die Session-ID’s werden ja im Normalfall automatisch neu generiert, sobald keine vorliegt. Kommt ein User nun also über eine Suchmaschine, hat er erstmal keine Session-ID und bekommt eine Neue verpasst. So erhält jeder Besucher seine eigene Session-ID, so wie es auch sein soll.

Wenn die Suchmaschine eine Session-ID mit-bookmarked, kommt jeder Besucher mit der gleichen Session-ID an. Ist also nicht ganz so sauber.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.