W świecie SEO nieustannie zachodzą zmiany, które wstrząsają świadomością pozycjonerów. Od roku 2011 Google stale unowocześnia algorytmy o kryptonimach Panda oraz Penguin, które wyznaczają nowe standardy w pozycjonowaniu. Niedawno zmieniły się też wytyczne dla webmasterów pod kątem pozycjonowania witryny. Te wszystkie zmiany powodują zawirowania w pozycjach stron klientów oraz niejednokrotnie dramatyczne spadki witryny w wynikach wyszukiwania, skutkujące mniejszą liczbą odwiedzin czy nawet ich brakiem. W takich momentach właściciele witryn zaczynają się interesować efektami pozycjonowania, poszukując (na własną rękę lub też z pomocą firmy zewnętrznej) przyczyn spadków oraz sposobów powrotów na wysokie pozycje, w efekcie decydując się na audyt SEO witryny.
Z tego artykułu dowiesz się:
- co to jest audyt SEO i z jakich składa się etapów,
- kiedy powinno się wykonywać audyty stron www,
- jakie działania należy podjąć, żeby dokonać audytu strony internetowej,
- kto powinien wykonywać audyty SEO.
Audyty SEO wykonuje się przede wszystkim wtedy, gdy witryna nieoczekiwanie spada w wynikach wyszukiwania. Zdarza się jednak, że klienci wykonują takie audyty już na etapie tworzenia strony, kiedy jeszcze w pracę zaangażowani są: grafik, programista, specjalista ds. treści, a w niektórych przypadkach także specjalista ds. użyteczności. Konsultując swoje plany z pozycjonerem, który od początku może przygotować odpowiednią dla niej strategię pozycjonowania, dobrać słowa kluczowe oraz stworzyć architekturę treści. W trakcie pracy pozycjoner powinien współpracować z programistą w celu przygotowania przyjaznego dla wyszukiwarek kodu HTML, a także z copywriterem, dla którego stworzy wytyczne w kwestii kreowanych tekstów. Na końcowym etapie, tuż przed uruchomieniem witryny, powinien zostać przygotowany częściowy audyt SEO, który pozwoli wykryć ostateczne błędy.
Google Webmaster Tools
Przyjacielem audytora SEO jest narzędzie Google Webmaster Tools. Jest to strefa, w której wyszukiwarka Google komunikuje się z webmasterem czy też właścicielem witryny, przekazując mu komunikaty na temat ewentualnych błędów strony pod kątem pozycjonowania. Sam audyt strony można podzielić na trzy części:
Słuchaj „Marketer+” Podcast
- techniczną – dotyczącą głównie spraw serwerowych, oprogramowania strony, ciasteczek itp.,
- wewnętrzną – dotyczącą spraw kodu HTML, linkowania wewnętrznego itp.,
- zewnętrzną – dotyczącą linkowania z zewnątrz.
Audyt techniczny strony
Część techniczna jest łatwa do wykonania, dlatego powinna sobie z nią poradzić każda osoba, która swobodnie porusza się w środowisku internetowym. Niestety, często ta kwestia jest pomijana podczas audytu, czego skutkiem może być strata cennego czasu, ponieważ w przypadku wystąpienia jakichkolwiek późniejszych problemów trudno jest je zlokalizować.
Zmiana ustawień przeglądarki
Aby przeprowadzać audyt, powinniśmy tak skonfigurować ustawienia przeglądarki, żeby imitowała robota Google. W tym celu wyłączamy obsługę ciasteczek oraz obsługę skryptów JavaScript. Możemy również pokusić się o zmianę zmiennej User Agent na „Googlebot”. Po tych zabiegach wchodzimy na stronę i sprawdzamy, czy jest ona wizualnie oraz treściowo podobna do tej, którą widzimy przy normalnych ustawieniach przeglądarki. Może się zdarzyć, że przy tej konfiguracji nie będzie działało poprawnie menu (np. jeśli jest ono rozwijane) czy też nie będzie się pojawiała część treści, gdyż jest zaciągana za pomocą technologii Ajax. Prawdziwy problem pojawia się jednak w momencie, gdy nasze menu nie jest w ogóle widoczne lub też na stronie brakuje treści. Powinniśmy też podjąć zdecydowane kroki, jeśli na naszej www pojawia się inna treść niż na normalnej stronie. Taki zabieg znany jest jako „cloaking” i od dawna jest karany przez Google.
Nagłówki HTTP
Po stronie serwera warto sprawdzić, w jaki sposób przekazywane są nagłówki HTTP pomiędzy nim a przeglądarką. Gdy łączymy się z adresem URL, serwer przekazuje do naszej przeglądarki nagłówki HTTP, które nie są widoczne dla normalnego użytkownika oraz kod strony HTML wraz z plikami graficznymi, CSS i JavaScript. Na podstawie tych danych przeglądarka wyświetla nam sformatowaną stronę. Nagłówki przekazują jej i robotowi Google informacje na temat statusu generowanych danych. Można wyróżnić kilka najważniejszych kodów:
- kod 200 – wszystko się udało,
- kod 301 – strona została trwale przeniesiona na nowy adres,
- kod 302 – strona została przeniesiona tymczasowo na nowy adres,
- kod 404 – strona nie istnieje,
- kod 500 – strona niedostępna, błąd serwera.
Do sprawdzenia nagłówków HTTP może nam posłużyć np. konsola programisty dostępna w przeglądarce Chrome lub też zewnętrzne narzędzie, tj. www.webconfs.com/http-header-check.php.
Warto też sprawdzić, czy strona główna oraz podstrony wyświetlają kod 200. Może się bowiem zdarzyć, że serwer strony – mimo że sama witryna wyświetla się prawidłowo – przez usterkę w oprogramowaniu przekazuje również błąd 500, którego skutkiem może być wyindeksowanie strony z wyszukiwarki Google. Powinniśmy się również uważnie przyjrzeć stronie błędu 404. Najłatwiej to zrobić, wpisując w pole adresu przeglądarki nieistniejący adres URL w naszej domenie i sprawdzić, jaka treść jest serwowana użytkownikowi. Powinna to być strona z informacją, że dana witryna nie została znaleziona. Można też sprawdzić, jaki nagłówek HTTP jest zwracany przez serwer. Jeśli jest to 404 – wszystko jest w porządku. Najczęściej pojawiające się błędy to:
- w przeglądarce pojawia się informacja o tym, że podana strona nie została znaleziona, jednak serwer zwraca kod 200. Istnieje prawdopodobieństwo, że Google zaindeksuje nieistniejące w serwisie adresy URL;
- w przeglądarce pojawia się np. strona główna.
Jeśli wystąpi któraś z powyższych sytuacji, musimy poinformować o tym webmastera odpowiedzialnego za stworzenie strony. Warto przeglądać Google Webmaster Tools pod kątem ww. błędów. W przypadku gdy robot Google’a natrafi na nieoczekiwany błąd, przekaże nam informację o tym.
Pod kątem technicznym warto również sprawdzić, czy CMS poprawnie generuje adresy URL dla podstron. Zdarza się, że po zmianie w adresie URL podstrony wybrany element systemu wyświetla cały czas tę samą www, np. pod adresem: www.strona.pl/jakis-artykul,x,y,z.html i www.strona.pl/losowy-tekst,x,y,z.html wyświetla się ta sama treść. Narażamy się tutaj na zaindeksowanie przez Google’a większej liczby adresów URL, duplikując treść w jego indeksie. Pomóc sobie możemy poprzez zastosowanie znacznika meta „rel=canonical”, którym wskazujemy Google’owi adres URL, jaki powinien być zaindeksowany przez wyszukiwarkę.
Audyt wewnętrzny strony
W kolejnym etapie powinniśmy przyjrzeć się naszej stronie internetowej pod kątem kodu HTML oraz linkowania wewnętrznego.
Kod HTML
Najłatwiej sprawdzić, czy kod naszej strony jest odpowiedni, wykorzystując narzędzie W3C validator. Wskaże nam ono błędy w składni języka HTML. Błędy te niekoniecznie muszą rzutować na złe indeksowanie strony przez roboty Google’a, ale ich eliminacja na pewno ułatwi im oraz wszystkim przeglądarkom internetowym zrozumienie strony.
Nagłówki meta
Warto też przejrzeć nagłówki meta, które przekazują informacje o stronie przeglądarce oraz robotom odwiedzającym witrynę. Do najważniejszych należą:
- <title></title> – to najważniejszy czynnik przekazujący wyszukiwarce informacje o słowach kluczowych (powinien mieć długość do 10 słów). Ma on również wpływ na to, jak nasza strona wyświetla się w wynikach wyszukiwania. W ramach audytu powinniśmy sprawdzić, czy znacznik zawiera ważne dla nas słowa kluczowe oraz czy zachęcałby użytkowników do odwiedzenia strony. Dodatkowo powinniśmy zwrócić uwagę na to, czy każda podstrona w naszym serwisie ma swój dedykowany, niepowtarzający się znacznik title. Jeśli tak nie jest, otrzymamy taką informację za pośrednictwem Google Webmaster Tools;
- meta description – to znacznik, za pomocą którego opisujemy kilkoma zdaniami stronę internetową. Mimo że nie ma on dużego wpływu na pozycję naszej witryny, można go przygotować, ponieważ wyświetla się w wynikach wyszukiwania;
- meta robots – to znacznik, za pośrednictwem którego przekazujemy robotowi Google’a informacje na temat tego, czy ma indeksować daną stronę/podstronę oraz czy ma „podążać” z niej na inne podstrony w naszej witrynie;
rel=canonical – dzięki niemu wskazujemy prawidłowy adres URL danej podstrony.
W internecie można znaleźć wiele analizatorów nagłówków meta pod kątem SEO – warto skorzystać z kilku z nich i na podstawie uzyskanych w ten sposób informacji wyciągnąć wnioski.
Nagłówki H1-H6
Kolejną rzeczą, której powinniśmy się przyjrzeć, są nagłówki H1-H6 w szablonie HTML witryny. Zgodnie z wytycznymi pełnią one funkcje tytułów oraz śródtytułów. Znacznik H1 to główny tytuł, dlatego w kodzie HTML podstrony powinien pojawić się tylko raz. Dobrze by było, gdyby zawierał ważne dla nas słowa kluczowe. Znaczniki H2-H6 mogą się pojawiać wielokrotnie.
Optymalizacja obrazków
Powinniśmy przyjrzeć się również optymalizacji obrazków. W kodzie warto używać znaczników „alt”, które opisują dany obrazek i przekazują robotowi Google’a jego tytuł oraz informację, czego on dotyczy.
Linkowanie wewnętrzne
Aby robot Google’a dobrze poruszał się po naszej stronie, musimy prawidłowo wykonać nawigację główną, poboczną oraz zaplanować linki wewnątrz treści. Zwróćmy uwagę, czy przy wyłączonej obsłudze JavaScript poprawnie wyświetla się menu i czy po kliknięciu w jego pozycje bez problemu przechodzimy na kolejne podstrony. Nawigacja powinna być wykonana za pomocą zwykłych linków HTML. Zdarza się, że projektanci stron, chcąc upiększyć menu, stosują skrypty JavaScript, które utrudniają robotom poruszanie się po www. Musimy pamiętać, że linki dobrze zaprojektowane pod kątem SEO to linki tekstowe – najlepiej więc, aby tekst odnośnika (tzw. anchor) zawierał słowa kluczowe.
Struktura treści
Zwróćmy też uwagę na to, jak wygląda struktura treści na stronie. W tym celu możemy przygotować rysunkowy schemat w formie drzewka prezentujący kolejne podstrony. Należy na nim zaznaczyć, które elementy struktury linkują między sobą, a następnie sprawdzić, czy w powstałej w ten sposób strukturze nie ma „wąskiego gardła”, a więc czy nie istnieje jakaś grupa podstron, do której można się dostać tylko poprzez wąską grupę linków.
Musimy pamiętać, że wszystkie podstrony powinny linkować do strony głównej – przeważnie robi się to poprzez podlinkowane logo. Kolejne elementy/stopnie struktury powinny linkować między sobą. Dodatkowo elementy ze struktury niższej powinny linkować do wyższej, tak jak ma to miejsce w przypadku sklepów internetowych: kategorie główne linkują między sobą (przeważnie dokonuje się to dzięki nawigacji głównej), podkategorie natomiast zarówno odnoszą się do siebie nawzajem, jak i linkują do kategorii wyższego poziomu (np. do głównych kategorii). W przypadku sklepów odbywa się to np. poprzez wskazywanie użytkownikom innych produktów z oferty, które mogą ich zainteresować. Dzięki tego typu zabiegom robot Google’a swobodnie przemieszcza się po podstronach, kolejno je indeksując.
W przypadku architektury treści powinniśmy również zwrócić uwagę na to, czy wszystkie nasze usługi/produkty są opisane oraz czy np. któregoś elementu oferty nie można umieścić na osobnej podstronie. Tworząc architekturę treści, musimy mieć na uwadze, że każda podstrona z wartościową treścią generuje możliwość zdobywania dodatkowego ruchu z wyszukiwarki Google.
Audyt zewnętrzny strony
Pozostała najtrudniejsza część – analiza linków prowadzących do witryny. Google ustala stopień popularności strony, sprawdzając linki zewnętrzne prowadzące do niej. A to ma duży wpływ na pozycjonowanie.
Na tym etapie pracy szczegółowy audyt wymaga znajomości metod pozycjonowania. Do analizy linków przydatne jest narzędzie Google Webmaster Tools, z którego możemy pobrać (w postaci pliku Excel) wszystkie odnośniki prowadzące do witryny. Zdarza się jednak, że w tym narzędziu nie są wymienione wszystkie linki. Możemy się wtedy posiłkować innymi: Ahrefs, MajesticSEO czy OpenSiteExplorer. W tych narzędziach są przygotowane graficzne raporty, z których szybko możemy wyciągnąć odpowiednie wnioski.
Proces zdobywania linków
Pozycjonowanie to zdobywanie linków dla danej strony internetowej. W dużym uproszczeniu można powiedzieć, że im więcej linków prowadzi do naszej witryny, tym jej pozycja jest wyższa. Google walczy z tym procederem, zaznaczając w swoich wytycznych, że zdobywanie odnośników nie powinno się odbywać w sposób sztuczny. Gdy użytkownik internetu zauważy wartościową stronę, może umieścić na swojej witrynie (lub w społeczności, do której należy) link do niej. Takie linki są przez Google’a respektowane. W internecie jest wiele miejsc, gdzie niedużym nakładem pracy można zdobyć linki do strony. W ten sposób łatwo oszukać algorytm Google’a.
Zdobywanie linków powinno być zatem wykonywane w sposób imitujący naturalny proces i pod tym kątem powinniśmy robić audyt ich profilu – najlepiej sobie wyobrazić, w jaki sposób użytkownicy www mogliby linkować do naszej witryny. Pod tym kątem należy zwracać uwagę na następujące czynniki:
- liczba linków oraz rozkład czasowy ich przyrostu – liczba odnośników powinna przybywać proporcjonalnie z czasem;
- teksty odnośników (anchory) prowadzące do witryny – powinny być zróżnicowane. Użytkownicy linkując do strony, rzadko robiliby to ze słowami kluczowymi, częściej używaliby nazwy naszej firmy czy tytułu strony internetowej, stąd też anchorów ze słowami kluczowymi powinno być mniej oraz powinny być zróżnicowane;
- rozkład linków prowadzących do podstron – gdy odnośników jest dużo, użytkownicy umieszczaliby je w kolejności ważności struktury treści: do strony głównej, kategorii głównych, pojedynczych podstron.
Warto też sprawdzić, czy do naszej strony nie prowadzą linki ze stron o niskiej jakości, które są kopią innych witryn, np. Wikipedii czy katalogu stron. Warto przejrzeć profil linków i sprawdzić, czy nie pochodzą z tzw. systemów wymiany linków lub tzw. precli. Tutaj na pewno pomogłaby konsultacja z doświadczonym specjalistą ds. SEO, który szybko jest w stanie wskazać nienaturalne i mogące zaszkodzić linki.
Audyt profilu linków powinien być wykonywany na bieżąco. Podczas tego procesu należy zwrócić szczególną uwagę na fakt, czy ktoś z zewnątrz, w sposób niezgodny z wytycznymi Google’a, nie linkuje do naszej witryny. Taki audyt powinniśmy wykonać również wtedy, gdy zauważymy spadki pozycji witryny w wynikach wyszukiwania. Może to mieć wielorakie podłoże. Od niedawna w Google Webmaster Tools możemy zobaczyć, czy na daną stronę nie została nałożona kara np. za prowadzące do niej linki. Jeśli tak jest, należy przeanalizować profil linków: te, które można uznać za podejrzane, zdjąć, a gdy nie ma takiej możliwości, można je zgłosić do narzędzia Disavow Tool.
Kto powinien wykonywać audyt SEO?
Czy taki audyt SEO można wykonać samodzielnie? Moim zdaniem osoba, która nie ma dużej wiedzy na temat SEO, może w oparciu o Google Webmaster Tools oraz wytyczne wyszukiwarki Google sprawdzić działanie strony oraz jej podstawowe czynniki. Natomiast szczegółowy audyt SEO powinna wykonać osoba z doświadczeniem w tej branży, przede wszystkim w zakresie audytu linków prowadzonych do witryny. Brak obycia w SEO może spowodować, że audyt będzie wykonany źle, a osoba, która go przeprowadzi, z powodu braku doświadczenia wyciągnie złe wnioski lub też pominie ważne elementy. Dodatkowo ktoś, kto pracuje na co dzień z SEO, jest na bieżąco ze zmianami oraz wytycznymi wprowadzanymi przez Google’a, dzięki czemu wie, na co w danej chwili należy zwracać uwagę.
[kreska]
Warto doczytać:




