Jaka nauczkę dostał gigant Google, który chciał przechytrzyć Polaków ?

Data dodania: 2008-11-19

Wyświetleń: 9058

Przedrukowań: 0

Głosy dodatnie: 2

Głosy ujemne: 0

WIEDZA

2 Ocena

Licencja: Creative Commons

Informacje opublikowane ostatnio na blogach Google, wywołały ogromną burzę wśród webmasterów, pozycjonerów i marketingowców. Google wyraźnie na nich podkreśla, że nie akceptuje systemów wymiany linków i ponad wszystko stawia na naturalne pozycjonowanie, czyli takie którym my nie ingerujemy w pozycję naszej strony w wyszukiwarce. Jednocześnie tymi słowami przeczy samo sobie, gdyż w innym temacie opublikowanym w narzędziach dla webmasterów, zachęca do katalogowania strony, co z kolei mija się z celem naturalnego pozycjonowania, gdyż każdy link zamieszczony w katalogu przekazuje część swojej mocy na zamieszczoną w nim stronę.

W innym z kolei wątku, pracownicy Google krytykują za przeoptymalizowanie strony, czyli stworzenie takiej witryny, którą nie będzie zawierała błędów konstrukcyjnych. Jednak co w tym złego, że ktoś się zna na rzeczy i pisze strony zgodne z wszelkimi standardami, ułatwiając przeszukiwanie swych zasobów innym wyszukiwarkom. Czyżby Google w ten sposób chciało podkreślić, że jest wyszukiwarką bezkonkurencyjną i nic nie może jej stawić wyzwania. Jeśli tak rzeczywiście twierdzą to bardzo się mylą, ale o tym za chwilę.

Pracownicy Google stworzyli coś takiego jak pojęcie złe sąsiedztwo, nie określając jednocześnie pełnej definicji dobrego sąsiedztwa. Jednak po wypowiedziach i różnych opiniach, jako dobre sąsiedztwo możemy uznać linkowanie ze stron o tej samej lub powiązanej tematyce. Tylko co jeśli jedna osoba ma kilka stron o różnych tematykach i chce je linkować między sobą, aby jedna strona robiła reklamę drugiej? W Google o tym pomyślało i nakazało aby w takim przypadku stosować w linkach atrybut nofollow, który nie będzie przekazywał parametru PR (ang. Page Rank). Ale czy początkujący webmaster, albo przeciętny blogowicz będzie wiedział co to nofollow ? Zdecydowanie nie, więc sugestia Google jest w tym przypadku jak najbardziej nietrafiona.

Przeglądając dalej sugestie, komentarze, posty i odpowiedzi na stronach Google, widać gołym okiem jak pracownicy tej wyszukiwarki kłamią i wprowadzają użytkowników w błąd. Wychwalają swój produkt ponad wszystko, pisząc jaki jest on doskonały i ile to innowacyjnych rozwiązań zaimplementowano, jednocześnie ukrywając szczegóły funkcjonowania algorytmu wyszukiwarki. Takie podejście sprawiło, że wiele osób uwierzyło, że Google rankinguje strony biorąc pod lupę setki czynników.

Jednak prawda wyszła na jaw, dzięki Polakom, a właściwie twórcom systemów SWL (systemy wymiany linków), które na całym świecie nie mają sobie równych – są najlepsze i bezkonkurencyjne, opatrzone różnymi ciekawymi technicznymi i programistycznymi rozwiązaniami. Ich właściciele trąbili głośno o blefach Googla (głównie Xann, administrator e-weblinka) i te przypuszczenia się sprawdziły. Jakość SWLi i ich ogólnodostępność sprawiła , że pracownicy Google wreszcie sami przyznali się do licznych kłamstw. W rezultacie wyszło, że to właśnie linki są głównym i najważniejszym czynnikiem, decydującym o pozycji strony w wyszukiwarce. Zatem sama wyszukiwarka Google niczym specjalnym nie różni się od pozostałych. Jedynie co ją wyróżnia to wskaźnik PR (ang. Page Rank), czyli stopień oceny strony na podstawie ilości treści i jakości linków (ale tylko teoretycznie). Jednak jak wielu pozycjonerów zauważyło, sam PR nie pływa na pozycję strony. Kiedy Googlarz (pracownik) w jednym z wywiadów został zapytany – jak się ma wskaźnik PR do pozycjonowania ? Wolał przemilczeć tą sprawę, gdyż nie chciał ujawnić szczegółów. Aczkolwiek ta sprawa również ujrzała światło dzienne, dzięki spostrzegawczości Naszych rodaków, którzy wywnioskowali że linki ze stron który mają jakiś PR, nadal są mocniejsze niż te, którym PR nie nadano.

Została jeszcze sprawa omówienia tematyczności strony. Czy aby na pewno tematyczność strony miała istotny wpływ na jakość linku ? Tutaj pewnie pojawią się różne sprzeczne opinie. Jednak twórcy SWL twierdzą, że ten współczynnik sam w sobie nie ma tak wielkiego znaczenia, a sama sprawa wzbudziła zainteresowanie, dzięki kłamliwym blogom Googla. Takie rozwiązania po prostu były wygodniejsze dla Googla, a nie pozycjonerów, gdyż czas jaki trzeba poświęcić na budowę tematycznej strony i napisanie artykułów z linkami jest znacznie dłuższy niż użycie systemów SWL.

Ostatnio pracownicy Google twardo likwidują z swych zasobów web spam, ale robią to bardzo niechlujnie i nieostrożnie. W efekcie z indeksu lecą zarówno strony spamowe, jak i te które na zbanowanie i filtry nie zasłużyły. W rezultacie wyniki wyświetlane przez wyszukiwarkę Google z dnia na dzień są coraz gorsze i niekiedy znalezienie czegokolwiek wymaga olbrzymiej cierpliwości. Kilka dni temu poszukując potrzebnej mi informacji o sztuczce do Photoshopa (program do obróbki grafiki), znalazłem ją dopiero na setnej stronie wyszukiwania (a wcześniej przed banami była w 1-szej dziesiątce). O dziwo ta sama strona w wynikach wyszukiwania MSN, była na właściwej pozycji. Niestety taka sytuacja spotkała mnie już kilkakrotnie, przemawiając na zmianę przyzwyczajeń z Google na MSN. Chciałbym jeszcze podkreślić, że w ostatnich miesiącach pracownicy MSN, ostro wzięli się do pracy, która zaowocowała tym że wyszukiwarka Microsoftu zaczęła indeksować coraz więcej stron, tym samym w znacznym stopniu poprawiło to jakość jej wyników. Ostatnie błędy Google sprawiają, że na dzień dzisiejszy pałeczkę rynku wyszukiwarek może przejąć kto inny. W tym boju stawiam na MSN, a jeśli ktoś zapyta dlaczego akurat nie Yahoo ? To odpowiem – ponieważ MSN jest w po polsku i obsługuje znacznie więcej języków, co daje jej status międzynarodowej.

Kiedy napisałem artykuł spamerzy nie lubiani, ale pożądani, wiele osób zarzuciło mi kłamstwo. Jednak ostatnie wnioski i opnie wskazały, że artykuł jak najbardziej opisuje prawdę, bo Ci którzy wytykali mnie palcami, twardo trzymali się wytycznych Google. Jak pokazała jednak praktyka, ich wytyczne nadają się tylko do jednego miejsca – śmietnika.

Na zakończanie i podsumowanie, zacytuję post Xanna opublikowanego na forum PiO , aby zwolennicy wytycznych Google po raz kolejny nie zarzucili mi kłamstw, bo to kto tak naprawdę kłamie, zostało już wyjaśnione.
„Tak od wczoraj przyglądam się wszystkim dyskusjom jakie zostały wywalane przez post na blogu google i muszę powiedzieć ze pierwszy raz jestem dumy z tego ze jestem Polakiem i członkiem tego forum.
Zrobiliśmy takie walniecie ze światowego giganta walnęliśmy na kolana, oficjalnie zabrał stanowisko w sprawie Polskich SWL;i jednocześnie przyznając się do tego na czym opiera się w głównej mierze algorytm Google , o ile jeszcze przez jakiś czas trwały spekulacje o tyle już dziś jesteśmy na 100% pewni na jakich zasadach działa algorytm pozycjonowania stron.
O ile nie dawno można było polemizować o tematyczności mocy linka to dziś wiemy na pewno ze był to blef.
Nie powiem Polak potrafi”
(źródło cytatu: Xann – forum PiO)
Licencja: Creative Commons
2 Ocena