W branży SEO/SEM, jak w każdej,  stosowane są nieuczciwe techniki, by robiąc mniej, dostać więcej. Niejednokrotnie w krótkim okresie czasu takie „kombinowanie” przynosi demotywujące konkurencję efekty. Jednak w dłuższej perspektywie okazuje się, że trzeba słono zapłacić za kokosy zdobyte „nicnierobieniem”.

Data dodania: 2012-08-02

Wyświetleń: 1714

Przedrukowań: 0

Głosy dodatnie: 0

Głosy ujemne: 0

WIEDZA

0 Ocena

Licencja: Creative Commons

Każdego dnia ludzie Larry’ego  Page’a  intensywnie myślą nad rozwiązaniami identyfikującymi i eliminującymi nieuczciwe działania SEO/SEM. Każda kolejna aktualizacja działania wyszukiwarki Google to z jednej strony przyczyna nieżytu żołądka pozycjonerów na całym świecie, a z drugiej strony nowa jakość w przestawianiu tych najtrafniejszych, najbardziej wartościowych stron według potrzeby poszukujących użytkowników. W porównaniu z latami poprzednimi, dziś trzeba włożyć więcej wysiłku, aby stworzyć stronę zasługującą na wysoką pozycję. Podobnie mniej opłaca się oszukiwanie Google, za co można szybko pożegnać się z miejscem w indeksie. Dlatego tych kilku działań, opisanych poniżej, lepiej dzisiaj nie stosuj, jeśli chcesz, aby pozycjonowanie strony dało długotrwały efekt w postaci wysokich pozycji:

 

1. Nadmierna optymalizacja stronpo ostatniej aktualizacji pozycjonerzy zauważyli, że nadmierna optymalizacja www może spowodować obniżenie pozycji strony. Nie stanowi to zagrożenia w postaci wypadnięcia z indeksu,  jednak zmiana pozycji o kilkadziesiąt już może wywołać niepokój. Jak można przeoptymalizować stronę? Zamieszczając zbyt dużo i zbyt gęsto słów kluczowych na stronie głównej i podstronach. Nie  brakuje serwisów, gdzie jedno określające witrynę słowo pojawia się w każdym zdaniu. Zatem przysłowie „co za dużo, to niezdrowo” w tym przypadku się sprawdza.

 

2. Powielanie treści – wyszukiwarka Google nie lubi tych samych treści powielonych w różnych miejscach. Nie sztuką jest napisać jeden pozycjonujący tekst i dodać go do wielu presell pages lub na kilka swoich stron stanowiących zaplecze. W tym drugim przypadku jest to dodatkowo dublowanie stron posiadających różne adresy url, lecz podobne – lub identyczne – treści. Nie stanowi ostatnio problemu Google, aby takie strony/treści wyłapać i zastosować karę.

 

3. Ukrywanie treści – w ramach „optymalizacji” strony stosowane jest ukrywanie tekstu przed użytkownikami, który jednak jest widoczny przez wyszukiwarkę. Można w ten sposób zawrzeć mnóstwo słów kluczowych, często wielokrotnie powtórzonych, bez konieczności „ubierania” ich w logiczne zdania, poprawną składnię i jasny przekaz. Kolor takiej treści jest identyczny z kolorem tła. Łatwiej jest wrzucić taką chmurę słów na stronie głównej, niż zdobyć się na opracowanie ciekawego kontentu z wplecionymi frazami.  Obecnie jednak pozycjonowanie strony wymaga większych umiejętności copywriterskich, niż mogłoby się wydawać.

 

4. Automatyczne generowanie treści – automaty do generowania treści są bardzo popularne. Wszystkie działają podobnie. Wystarczy napisać jeden tekst z potrzebnymi frazami, a następnie dodać synonimy, które automat może wybrać, kiedy będzie generował nowe teksty. Podmieni wskazane synonimy pod określone słowa lub sam wylosuje synonimy. Istnieją automaty i półautomaty. Nad pracą tych drugich pozycjoner może czuwać. Jednak wybierając automat, efekty z takiego tworzenia tekstów są opłakane. Wiadomo, że słowa posiadają synonimy. Nie każdy jednak pasuje do zdania o konkretnej tematyce. W wyniku tego treści są zbudowane bez odmiany słów, poprawnej składni i generalnie logiki. Zaśmiecają tylko Internet. Google może zablokować stronę, do której prowadzą linki umieszczone właśnie w takich tekstach o marnej jakości.

 

5. Cloaking – metoda polegająca na pokazywaniu innej wersji strony www użytkownikom i wyszukiwarce. Oszukuje się w ten sposób roboty, które w istocie mają wyłapywać i nagradzać strony wartościowe z punktu widzenia Internautów. Cloaking daje możliwość zbudowania strony wyłącznie pod Google oraz drugiej wersji, ciekawszej dla człowieka, lecz mniej atrakcyjnej dla robotów. Istnieją sposoby identyfikacji IP systemu, który odwiedza daną witrynę. Jeśli wiadomo, że to robot, wyświetla się wersja dla robotów. Za takie praktyki można otrzymać surową karę – trwałe usunięcie strony z indeksu.

 

6. Manipulowanie ilością linków prowadzących do witryny – nie od dziś wiadomo, że farmy linków są poszukiwane i sukcesywnie eliminowane przez roboty Google. Wykorzystywanie ich jest równie niebezpieczne, jak stosowanie wyżej wymienionych praktyk. Farmy linków (SWL) to grupa serwisów, które wzajemnie do siebie linkują i w zasadzie nie posiadają żadnej treści ponad to. Głównie są tworzone automatycznie. Google tępiąc SWL-e, daje możliwość zgłoszenia takowej strony www, która jest podejrzana. Jeśli jakaś farma zostaje zablokowana przez robota Google, wtedy każdy link na niej się znajdujący, jest dla niego podejrzany. W ten sposób strona, do której owy link prowadził, może mocno spaść z wyżyn pozycji.

Licencja: Creative Commons
0 Ocena