Wiele agencji interaktywnych posiada w swojej ofercie usługę audytu i optymalizacji strony pod SEO. Ceny takich usług są rozmaite, nie będę przytaczał kwot. W tym artykule opiszę czym ów audyt jest, jak interpretować wyniki i jakie są normy dla niektórych parametrów.

Data dodania: 2015-03-14

Wyświetleń: 1830

Przedrukowań: 0

Głosy dodatnie: 1

Głosy ujemne: 0

WIEDZA

1 Ocena

Licencja: Creative Commons

O interpretacji wyników audytu i optymalizacji kodu.

Zapraszam do zapoznania się z moimi poprzednimi artykułami, w których wspominałem o możliwości przeprowadzenia darmowego audytu SEO. Taki audyt jest dość oględny i nie można go porównać z przeprowadzeniem pełnego, profesjonalnego audytu. Mimo wszystko postanowiłem dla uproszczenia skorzystać z przykładu audytów darmowych, których w internecie można znaleźć naprawdę sporo, a których wyniki mogą pomóc w pozycjonowaniu. Większość takich audytów ma dość podobne opcje. Skupię się więc na parametrach najważniejszych w mojej ocenie. Najważniejszą rzeczą zawartą na stronie jest content (treść) o czym należy wspomnieć. Pozwolę sobie teraz zbić parametry w bloki i opisać po kolei.

Na samym początku, żeby optymalizacja przebiegała sprawnie należy uporządkować kod, wyeliminować błędy, niepoprawne składnie etc. Jeżeli audyt nie zawiera raportu z validatora, można to sprawdzić samemu (validator W3C) i otrzymać raport wraz z lokalizacją błędów. Bezbłędny kod znacznie ułatwi indeksowanie. Skoro mowa o kodzie, warto sprawdzić stosunek treści do kodu. Optymalna wartość dla tego parametru to 25%+. Należy także pamiętać o stosowaniu nagłówków (H1, H2, H3 przynajmniej po jednym), w których można umieścić frazy kluczowe oraz o pogrubieniach w tekście.

Kolejną rzeczą wartą uwagi są atrybuty ALT przy grafikach, co ułatwia indeksowanie grafik. Dzięki temu nasze grafiki będę dostępne w wyszukiwarce grafik i ułatwi dotarcie do naszej strony. Warto też wspomnieć o umieszczonych na stronie linkach. Linkom wewnętrznym najlepiej nadawać atrybut follow, zaś linkom wychodzącym poleca się nadawanie atrybutu nofollow. W skrócie napiszę, że linki wychodzące z atrybutem follow , które prowadzą do stron słabej jakości lub całkowicie rozbieżnych tematycznie mogą obniżyć wartość naszej strony i dzielić z nią PageRank.

Ważne dla poprawnego i łatwego indeksowania strony są pliki sitemap.xlm oraz robots.txt. Plik robots.txt pozwala na wskazanie robotowi indeksującemu których plików, podstron, katalogów nie powinien odwiedzać ani indeksować. Robots.txt powinno zawierać dyrektywę Sitemap. Sitemap.xml jest z kolei mapą strony, która nawiguje roboty indeksujące po odnośnikach. Zawiera wszystkie adresy URL, które znajdują się na stronie wraz z istotnymi informacjami jak np.: częstotliwość aktualizacji, priorytet.

W dzisiejszych czasach coraz więcej odwiedzin stron pochodzi z urządzeń mobilnych. Należy pamiętać więc pamiętać o nienajlepszej relacji urządzeń mobilnych z technologią flash, której poleca się unikać (poleca się też unikać ramek). Dobrą praktyką jest tworzenie stron responsywnych (automatycznie dostosowujących się do rozdzielczości danego urządzenia). W kwestii technicznej przypomnę jeszcze o określeniu kodowania i języka strony.

Ostatni punkt zostawiłem dla meta tagów i przekierowań. Meta title to tytuł, który wyświetli się w wynikach wyszukiwarki. Powinien być zwięzły, jasny, krótki (55-60 znaków) i zawierać słowa kluczowe pod pozycjonowanie. Meta description - unikalny opis każdej podstrony, wyświetla się w wynikach wyszukiwania. Powinien zawierać do 160 znaków, być konkretny i na temat. Należy uważać na zagęszczenie słów kluczowych, w przeciwnym wypadku będzie to wyglądało nienaturalnie. Meta keywords w tej chwili jest już parametrem nieaktualnym, poleca się więc zostawić ten tag pusty. Dzięki pominięciu tego tagu konkurencja nie będzie widziała fraz, na które się pozycjonujemy. Będąc przy temacie ograniczeń znakowych wspomnę jeszcze, że adres URL nie powinien był dłuższy niż 105 znaków licząc bez rozszerzenia. Ostatni punkt na mojej liście to przekierowanie www / bez www tzn. z www.adres.pl na adres.pl. Bez przekierowania domeny www i bez www mogą zostać uznane za odrębne i powielone (duplicate content).

Z rzeczy dla mnie ważnych wymieniłem już wszystko. Część rzeczy opisałem pobieżnie, ale trudno było by zmieścić szczegółową analizę w krótkim artykule. Większość opisów czynności można znaleźć z powodzeniem w internecie, a ideę audytu i optymalizacji przedstawiłem, mam nadzieję dość jasno. W następnym artykule napiszę o ostatnich szlifach w pozycjonowaniu i co zrobić, żeby to wszystko razem zadziałało.  

Licencja: Creative Commons
1 Ocena