Durchstöbert man die Blogs zum Thema Suchmaschinenoptimierung, trifft man häufiger auf das Wort „Cloaking“. Nur die wenigsten Texter werden mit diesem Phänomen konfrontiert – und das ist gut so.
Cloaking, auf Deutsch „Verhüllen“, ist eine Technik, die darin besteht, den HTML-Inhalt einer Website zu verändern, je nachdem, ob ein Besucher die Seite aufruft oder ein Crawler (Spider) der Seite einen Besuch abstattet. Durch das Feld USER-Agent lassen sich nämlich Crawler auf der Seite erkennen und separat bedienen. Das Ziel von Cloaking: Seinen Rankingplatz in den Suchmaschinen-Ergebnisseiten (SERPs) zu verbessern. Und das klappt auch kurzfristig.
Im Prinzip wird der Text zweimal geschrieben und dem jeweiligen Besucher präsentiert: einmal vollgepackt mit Keywords für die Suchmaschine, ein zweites Mal lesefreundlich und stimulierend für den menschlichen Besucher. Das klingt beim ersten Hören sinnvoll. Denn Texte mit hoher Keyword-Dichte, die nicht nach allen Regeln der Seotorik-Kunst geschrieben wurden, sind für viele Leser abschreckend. Doch mittlerweile erkennen die Suchmaschinen diesen Trick und werten ihn als Betrugsversuch. Die Folge: Die Seite kommt für mehrere Monate auf die schwarze Liste und erscheint nicht mehr in den SERPs. Man schadet sich mittelfristig selbst. Also legen wir besser den Mantel des Schweigens (cloak of silence) über diese Methode.