Czy Google naprawdę ukróci korzystanie z nienaturalnych linków? Czy jest w stanie to zrobić wymuszając na webmasterach stosowanie się do wytycznych podobnych swoim regulaminie? Na pewno szefowie Google sobie tego życzą. Można jednak mieć wątpliwości czy jest to realne.

Data dodania: 2007-05-18

Wyświetleń: 5937

Przedrukowań: 0

Głosy dodatnie: 3

Głosy ujemne: 0

WIEDZA

3 Ocena

Licencja: Creative Commons

Ostatnio na blogu Google pojawił się wpis na temat linków, po polsku. Nie miałem do tej pory czasu o tym pisać, ale teraz chciałbym to nadrobić. Stwierdzenia tam zawarte są interesujące. Są na tyle interesujące, że niektórzy gromko okrzyknęli zmianę podejścia i rewolucję wśród pozycjonerów. Proszę o jedno - miejcie trochę więcej sceptycyzmu wobec tego, co firmy piszą na temat swoich własnych produktów :-)

Google skrytykowało linkowanie ze sobą stron niezwiązanych tematycznie, systemy wymiany linków oraz kupowanie linków. Google ma prawo krytykować co tylko ze chce, ale od krytyki do praktyki wiedzie nie mała droga…

Moje linki są naprawdę moje

Po pierwsze: moje linki są moją własnością. To truizm, ale warto to podkreślić, aby uniknąć nieporozumień. Nie zmuszam robotów Google do ich indeksowania, niech Google robi sobie co chce. Nie ja wymyśliłem taki sposób działania wyszukiwarki. Nie ma jednak prawa decydować o tym co w Sieci wolno, a czego nie wolno. Ja mogę polecać innym moje strony, mogę reklamować stronę kolegi, mogę komuś sprzedać reklamę… A to, że sprzedaję komuś link, wcale nie musi oznaczać, że jest to robione w celu oszukania Google.

Wytyczne dla webmasterów, regulaminy… to wszystko tylko mówi o tym, jak Sieć powinna wyglądać według życzeń Google. To nie oznacza, że ktokolwiek ma obowiązek się do tego stosować, ani nie oznacza, że samo Google będzie to wszystko egzekwować. Oczywiście wiedząc, że jakaś strona jest niezgodna z regulaminem Google nikt nie powinien się obrażać na jej wyrzucenie z indeksu, to chyba oczywiste.

Jak tego dokonać?

Po drugie: Google według mnie nie ma możliwości kontrolowania wszystkich linków. Odróżnienie linku naturalnego od sztucznego jest diablo trudne. Właściwie niemożliwe dla jakiegokolwiek algorytmu.

Popatrzcie na sytuację z takimi technikami, jak ukryty tekst. Roboty Google tego nie wykrywają, chociaż wystarczy całkiem prosta analiza kodu strony. Dlaczego tego nie robią? Według mnie nawet Google nie ma odpowiedniej mocy obliczeniowej. Skąd więc wzięłaby się ona na tak głębokie porównywanie wszystkich linków, określanie ich podobieństwa… nie, tak się na pewno nie stanie, nie uwierzę w to tylko na podstawie tekstu na blogu.

Podejrzewam, że sytuacja będzie podobna, jak z innymi technikami, których Google nie pochwala. Na codzień będą ignorowane, a coś się zdarzy dopiero wtedy, gdy pozycjonera podkabluje konkurencja.

Oby tylko nie przesadzić…

I sprawa trzecia: Google wie, że w egzekwowaniu tych wszystkich teoretycznych nakazów nie może przesadzić. Jeśli właściciele stron zaczną się odsuwać od tej wyszukiwarki, to wypromują w jej miejsce inne. Oni mają największą siłę przebicia i możliwość dotarcia do umysłów internautów. Każdy gigant może upaść. Szczególnie w internecie.

Licencja: Creative Commons
3 Ocena