Cloaking to technika używana przez pozycjonerów, która polega na prezentowaniu pajączkom wyszukiwarki treści odmiennych niż te, które są prezentowane użytkownikom strony. W tym artykule pokażę jak to się robiło kiedyś, a jak dziś. Polecam zapoznać się z tą techniką, gdyż obecnie nawet samo Google ją stosuje!

Licencja: Creative Commons

Data dodania: 2009-09-04

Wyświetleń: 2576

Przedrukowań: 0

Głosy dodatnie: 4

Głosy ujemne: 2

WIEDZA

2 Ocena

Do tej pory (wydanie 1.0) cloaking stosowano w następujący sposób:

W kodzie PHP strony tworzony był warunek:

<php
if(strpos($_SERVER['HTTP_USER_AGENT'],'google')!==false) {
// tu treść strony dla Google
exit();
}
// dalej treść strony dla użytkownika
?>

Oczywiście Google w międzyczasie dojrzało i pajączki tej wyszukiwarki zaczęły się przedstawiać (zmienna HTTP_USER_AGENT) jako Mozilla lub Internet Explorer. Pozycjonerzy również ewoluowali i obecność GoogleBot'a rozpoznawali po IP z którego przychodziło odwołanie do strony.

Trzecim stadium rozwoju cloakingu było rozpoznawanie botów po plikach cookie. Założenie spamerów jest takie, że GoogleBot jest tylko "starą przeglądarką tekstową"*, która nie akceptuje cookie, więc użytkownikowi akceptującemu cookie można dać "standardową" treść, a nieakceptującemu - spam.

Od jakiegoś czasu mamy jednak Web 2.0**, które przekłada się również na branżę SEO.

Google zmieniło funkcjonalność atrybutu rel="nofollow", wprowadziło tag rel="canonical" i dotychczasowe techniki kształtowania PageRank'u nie przynoszą już takich efektów jak kiedyś. Czas więc wymyślić coś nowego. Niech więc tą nowością, czy też "powiewem świeżości" w świecie SEO będzie:

Cloaking 2.0

Inspiracją do tego pojęcia (jak i całego artykułu) był tekst Cezarego Lecha o nowym mechanizmie  Page Rank Sculpting***. Muszę przyznać, że już ok. miesiąca przed publikacją tego artykułu zastosowałem poradę dotyczącą używania hasha (#) w URL'ach w moim projekcie dotyczącym pozycjonowania przez blipowanie. Jednak na samych hash'ach nie poprzestałem...

Hash + CSS + JavaScript

Najlepsze efekty według mnie uzyskamy gdy połączymy SEO-friendly hash'a z JavaScript'em i stylami CSS. Oto case SEOBlip.pl:

Tworząc nową odsłonę serwisu mającego pomóc wyszukiwarkom indeksować (i pozycjonować) linki, które polecają użytkownicy Blipa zależało mi, aby użytkownicy mogli w przyszłości linkować do swoich statusów na SeoBlipie tak jak to robią do zwykłego Blipa. Jednakże serwowanie wyszukiwarkom contentu < 160 znaków nie ma sensu (IMHO podstrony http://blip.pl/s/numerek są bez  wartości nie tylko dla wyszukiwarek :/). Trzeba więc było zagregować powiązane tematycznie statusy i przedstawiać je razem na wspólnych podstronach.

Rozwiązanie więc było proste: przed każdym statusem trzeba było wstawić kotwicę, aby użytkownikowi klikającemu w link od razu pokazał się odpowiedni status. W ten sposób jednak użytkownik oprócz pożądanego statusu widział wszystkie inne, które niekoniecznie były z nim powiązane (przynajmniej w sensie, na jakim zależało osobie linkującej do statusu). W tym momencie pomocny okazał się JavaScript, a konkretnie bardzo fajny framework do tego języka - jQuery.

Wystarczyło dosłownie kilka linijek kodu, aby ukryć przed użytkownikiem niepożądane statusy, zostawiając tylko ten, o który chodziło osobie linkującej. Źródło wygląda w ten sposób:

<script type=text/javascript src=http://URL_do_biblioteki_jQuery></script>
<script type=text/javascript>
<!--
/* sprawdzamy, czy strona została wywołana z hash'em (#) */
hash=self.document.location.hash.substring(1);
if (hash)
{
/* jeżeli tak, to po załadowaniu strony... */
$(document).ready(
function()
{
/* ukrywamy wszystkie warstwy o klasie "status" */
$("div.status").hide();
/* i pokazujemy tylko tę o id odpowiadającemu odwołaniu w hashu */
$("div#"+hash).show();
}
)
}
//->
</script>

Jak widać nie ma w tym kodzie żadnej filozofii. W praktyce wygląda to tak: jeden status***, wszystkie zagregowane statusy***. Robot wyszukiwarki (o ile się nie mylę), nigdy nie otworzy strony z hashem, więc nawet jeżeli rozumie JavaScript*** - nie wykona kodu ukrywania ukrywania warstw (cloaking) i nie zostaniemy posądzeni o SPAM.

White Hat SEO?

Czy zatem jest to technika w 100% bezpieczna? Na dzień dzisiejszy chyba tak. W najbliższej przyszłości zapewne również, gdyż samo Google zaczyna z niej korzystać***. Ponadto rekomendują używanie hashy*** w linkach zawierających dane kampanii Analytics.

Polecam więc zainteresować się Web 2.0′wymi narzędziami nie tylko do tworzenia "fajnych ficzerów" na strony, ale również do jej optymalizacji pod kątem SEO.

* - IMHO stwierdzenie to już od dawna nie jest aktualne. Chcesz sprawdzić jak robot Google widzi Twoją stronę? Zainstaluj sobie Google Chrome ;)

** - pojęcie Web 2.0 oznacza dla mnie nie tylko "internet spolecznościowy", ale również "aplikacje internetowe działające bez przeładowywania strony"

*** - linki prowadzące do źródeł tych informacji znajdują się w pierwowzorze artykułu na moim blogu o pozycjonowaniu: Cloaking 2.0

Licencja: Creative Commons