Treść umieszczana w internecie pochodzi z trzech(mocno generalizując) źródeł i według pewnych domysłów algorytm Google kategoryzuje i łączy w grupy pewne typy stron. Mamy więc blogosferę, strony komercyjne oraz coś co z braku lepszego określenia można nazwać wszelakiego rodzaju forami, czyli stronami które są dynamicznie tworzone przez użytkowników. Należy tutaj napomknąć także microblogging, który ze względu na olbrzymi potencjał „linko-twórczy” jest obarczony niemalże w całości atrybutem „nofollow”.
Bazując na doświadczeniu możemy stwierdzić, że każdą stronę przyporządkowaną do tych kategorii(choćby wedle naszego przeczucia) pozycjonuje się inaczej. Wynika to z prostej zależności, algorytm Google dąży do naturalnej struktury sieci(pojętej oczywiście na ich modłę) więc blog zwykłego użytkownika, a i choćby pisał o kotach jest bardziej „zaspamowany” linkami zewnętrznymi niż przeciętne zaplecze firmy pozycjonerskiej. Wynika z tego w prostej linii, że tworząc zaplecza w blogosferze, bazując na takich platformach jak WordPress czy Joomla powinnyśmy tworzyć naturalny kontent, ale co znaczy naturalny kontent wg Google w ujęciu blogosfery?
1. Częste, regularne dodawanie wpisów
2. Chaotyczne linkowanie(tam gdzie $kowalski chce, czyli takie które nie przekazuje w dużej mierze „mocy”( za mało midichlorianów)
3. Dużo nie sformatowanych obrazków oraz obiektów oraz „gadżetyyyy „lub widgety jak kto woli
4. Ruch na stronie, wiadomo że Alexia Rank bazuje na ilości odwiedzin UU, ale Google uparcie twierdzi, że jest to mało znaczący czynnik w ocenie wartości strony, w przypadku blogosfery takiej ja blogspot ma to jednak znaczenie decydujące(czasami wystarczy chwytliwy tytuł bloga by wywindować *click*ami użytkowników, współczynnik odrzuceń(nie jest na razie oceniany).
To w skrócie przepis na odwiedzanego bloga, a co za tym idzie skuteczne pozycjonowanie stron internetowych. By jedna zrobić z niego zaplecze...
Jak więc stworzyć stronę pod „zaplecze” które jest znowu w krzywym zwierciadle „naturalne”, ale jednocześnie wystarczająco silne i osadzone kontekstowo by było przydatne w pozycjonowaniu. Kluczem w tym rozumowaniu są linki wychodzące z bloga. Na szczęście algorytm firmy „Patrzałki” nie jest aż tak inteligentny jak by firma G$$gle chciała by, abyśmy go widzieli. Jeżeli linkujemy do stron o wysokim PR, możemy zakładać iż nasza „moc”(again Qui Gon, all hail) nie spadnie. W prostej linii więc uzyskujemy z pozoru naturalne zaplecze, tworzone przez Jana K* które nie przekazuje siły na strony o wysokim znaczeniu(bo po cóż, przecież Facebook=”Mordo-księga” ma nadany z ogórnie PR 10 i wszystko nofollow), a większość serwisów 2.0 zawdzięcza swoją popularność nie pozycjonowaniu, ale ilości UU(po raz wtóry, nie potwierdzone*). Reasumując, Google można przekonać iż nasza strona jest „naturalna” a w między czasie linkować do stron o wysokim PR i wmieszanej między nimi naszej docelowej strony, która przy odpowiednik kontekście jest traktowana jako fanaberia bądź też „fazowanie” użytkownika
*bo któż może sobie pozwolić na testy na serwisie który jest popularny, ale nie był pozycjonowany.
To tylko jedna, ale jakże popularna forma stworzenie wartościowych stron przez pozycjonerów.