Nagłe pogorszenie pozycji, spadki w ruchu organicznym czy niekorzystne zmiany trendów związanych z widoczności sprawiają, że nie pozostaje nam nic innego, jak zabawa w detektywa i poszukiwanie elementów, który mogły wpłynąć na taki stan rzeczy. Problemy z działaniem serwera, aktualizacja algorytmu, kara ręczna, nieprawidłowa podstron a może atak hakerski? Możliwa lista przyczyn jest dość długa.

Zainspirowana naszymi niedawnymi poszukiwaniami oraz ostatnim artykułem Szymona Słownika w tym temacie postanowiłam spisać ponad sto punktów, które można potraktować jako checklistę przy poszukiwaniu przyczyn spadków domeny w wynikach wyszukiwania. Przy okazji każdej takiej analizy dobrze jest użyć narzędzi, które kompleksową przeskanują całą zawartość witryny pod kątem SEO i zdiagnozują wiele potencjalnych problemów. Mam tu na myśli np. Deepcrawl, Sitebulb, Screaming Frog czy Clusteric. Do szybkiego sprawdzenia „od ręki” poszczególnych punktów można użyć dedykowanych wtyczek czy narzędzi dostępnych online (o kilku z nich napisałam niżej).

1. Analiza danych z poziomu wyszukiwarki i narzędzia

Od czego zacząć? Na przykład od ręcznego zweryfikowania tego czy wskazane przez narzędzia do monitorowania pozycji wyniki mają odzwierciedlenie w rzeczywistości 😛 Nim ogłosimy alarm warto po prostu zweryfikować poprawność danych. Na pewno nie tylko ja miałam okazje nieźle się zdziwić, gdy po zalogowaniu do panelu pozycji zobaczyłam same czerwone cyferki. Na szczęście w kilku przypadkach dość szybko okazało się, że to nic innego jak błąd narzędzia. Przy sprawdzaniu ręcznym wyniki były poprawne. Jeśli jednak narzędzia się nie mylą pozostaje nam (czasem długie i żmudne) poszukiwanie przyczyn spadków i wykrywanie ewentualnych błędów.

A. Pozycje fraz

  • Sprawdzić, dla których fraz pozycje się wahają (pomoże to ustalić czy ewentualny problem dotyczy całej witryny czy np. tylko jednej sekcji / grupy podstron)
  • Wytypować podstrony, których dotyczy problem (by rozpocząć dalsze analizowanie od tych adresów)
  • Zweryfikować czy zmienił się typ wyniku (dla przykładu, spadek może wynikać z tego, że wcześniej witryna wyświetlała się w mapach Google na konkretną frazę)
  • Sprawdzić czy nie zachodzi kanibalizacja (dość często zdarza się, że ze względu na istnienie dwóch lub więcej rywalizujących ze sobą podstron, zoptymalizowanych pod te same frazy, Google wyświetla na zmianę w wynikach adres którejś z nich bądź czasowo eliminuje wszystkie z top10).
dane z Semstorm - informacja o zmienie podstrony

dane z Seostation – informacja o zmianie podstrony i związane z tym wahania

B. Wyniki wyszukiwania

  • Określić czy zmieniła się struktura wyników (doszły / wypadły mapy, grafy wiedzy, direct answer itd., które mogły zaburzyć dotychczasowy sposób prezentowania wyników)
  • Sprawdzić jak „wizualnie” wygląda wynik dla danej podstrony (czy coś się zmieniło / czy pojawiło się coś niepokojącego)
  • Zweryfikować co wyświetla się w title i descriprion i czy pokrywa się to z kodem strony?
  • Sprawdzić czy adres URL wyświetla się prawidło i czy jest to strona, która dotąd rankowała na daną frazę?
  • Upewnić się czy nie ma podejrzanych oznaczeń (np. informacji o tym, że witryna może zawierać szkodliwe oprogramowanie bądź miał miejsce atak hakerski)
informacja o tym, że witryna mogła zostać zaatakowana przez hakerów

informacja o tym, że witryna mogła zostać zaatakowana przez hakerów

C. Cache

  • Sprawdzić czy strony, które zanotowały spadki spadają, mają cache (jeśli adres to tej pory bez problemu się indeksował warto sprawdzić m.in. komendy dotyczące indeksacji)
  • Upewnić się jaki adres został zaindeksowany i czy jest to na pewno ten, który rankował wcześniej (uwaga np. na trailing slash i adresy z protokołem http i https)
  • Ocenić datę zaindeksowania (jeśli cache jest świeży i są w nim jakieś zmiany można wykryć część niezgodności porównując go np. ze starszym cache przechowywanym przez Bing)
  • Zobaczyć co jest w wersji tekstowej i czy pokrywa się ona z aktualną zawartością strony (uwaga na ukryte elementy)
Cache zwracany jest dla innego adresu ze względu na canonical

Cache zwracany jest dla innego adresu ze względu na

D. Site

  • Sprawdzić komendą site: jakie typy podstron pojawiają się na liście (chodzi m.in. o to by sprawdzić czy nie przybyło jakiś podejrzanych adresów).
  • Zweryfikować, czy znajdują się tam najważniejsze adresy (zweryfikować czy nie „wycięło” jakieś ważnej sekcji bądź puli adresów)
  • Czy site się znacząco zwiększył / zmniejszył?
  • Czy pojawiają się przypadkowe / niepożądane adresy? (fejkowe adresy mogą wskazywać na atak hakerski, czasem zdarza się, że przy zmianie komend dotyczących indeksacji w wynikach zaczynają masowo pojawiać się np. zablokowane dotąd adresy z parametrem itd.).
przykład adresów wygenerowanych po ataku

przykład adresów wygenerowanych po ataku

2. Analiza zawartości domeny pod kątem błędów

Pierwszy etap analizy powinien już wskazać kierunek dalszych poszukiwań. Jeśli przyczyna spadków tkwi w nieprawidłowych ustawieniach bądź wynika z błędów w optymalizacji warto zwrócić uwagę na takie elementy tak:

A. Indeksacja

  • Zweryfikować komendy odnoszące się do meta name=”robots” (sprawdzić czy nie ma ustawień noindex bądź none)
  • Sprawdzić komendy z pliku robots.txt (upewnić się czy dana podstrona bądź grupa podstron nie jest blokowana)

* można to zrobić ręcznie bądź wykorzystać GSC, sekcja Indeksowanie — tester pliku robots.txt)

B. Canonicale

  • Zweryfikować czy występują i czy są użyte tak samo jak w okresie poprzedzającym
  • Sprawdzić jaki adres jest wskazywany (być może spadki wynikają z dodania błędnego canonicala bądź odesłania do niepoprawnego adresu)
  • Czy umiejscowienie canonicala w kodzie jest poprawne (czy jest w sekcji head i czy nie jest przypadkowo zaimplementowany np. dwukrotnie0
  • Sprawdzić czy są canonicale są dodane poprawnie na paginacji, sortowaniu itd.

*można zweryfikować to ręcznie bądź np. przy użyciu wtyczki SEOquake)

C.

  • Zweryfikować czy zmieniły się dotychczasowe ustawienia przekierowań
  • Sprawdzić czy przekierowania działają poprawnie (czy zwracany jest kod 301)
  • Upewnić się, że działają pomiędzy adresami z prefiksami i wersjami z protokołem (np. adresy z www są przekierowane na bez www oraz http przekierowuje na https)
  • Zweryfikować czy są przekierowania z adresów systemowych, stanowiących kopie (np. z adresu /index.php itd.)
  • Zweryfikować czy nie pojawiły się przekierowania 302 bądź 307

*poszczególne przekierowania można sprawdzać ręcznie, używając GSC bądź narzędzi online typu status checker jak np. https://httpstatus.io/

status checker

https://httpstatus.io/

D. Kod źródłowy

  • Przejrzeć kod pod kątem składni (sprawdzić czy nie pojawiły się błędy i czy np. dana wtyczka nie generuje błędów)
  • Zwrócić uwagę na linki wychodzące (czy nie pojawiły się jakieś niechciane odnośniki będące efektem ataku hakerskiego i wstrzyknięcia fragmentu kodu)
  • Zwrócić uwagę na elementy z komendą hidden bądź display:none

*całość można zweryfikować ręcznie oraz z użyciem narzędzia typu html validator

E. Możliwe duplikaty

  • Sprawdzić czy nie ma duplikatów stron (przeklikując domenę i oceniając adresy pojawiające się w site)
  • Zweryfikować czy treść nie duplikuje się wewnętrznie i zewnętrznie

*Można to zrobić ręcznie (wpisując do wyszukiwarki fragment treści otoczony cudzysłowem) bądź używając narzędzi typu Copy Skape

F. Title i nagłówki

  • sprawdzić aktualne ustawień title i porównać z ustawienia z cache (zmiany takiej jak przesycenia słowami kluczowymi czy usunięcie dotychczas użytych fraz może wpływać na wahania)
    *w razie potrzeby można posiłkować się danymi z narzędzia z archive.org (jeśli cache jest świeży bądź nie pamiętamy poprzednich ustawień)
  • sprawdzić zawartość nagłówków h1, h2, h3 (dla adresów, których dotyczyły spadki, sprawdzić czy nie ma przesycenia frazami bądź czy coś nie zostało usunięte)

G. Nasycenie frazami

  • zweryfikować obecność fraz na stronach (mam na myśli te słowa kluczowe, które uległy wahaniom i adresy, które rankowały na dane frazy)
  • oszacować Ilość złożeń ze słowami kluczowymi i uwzględnić obecność synonimów (chodzi o to by upewnić się czy np. ostatnio wprowadzone zmiany nie sprawiły, że strona jest przesycona frazami bądź czy nie występują one tylko w jednej formie – np. wyłącznie w l. pojedynczej)
  • ocenić umiejscowienie fraz w treści (czy jest proporcjonalne)

H. Grafika

  • ocenić wypełnienie altów (sprawdzić czy jest poprawne i czy nie zostało przeoptymalizowane / przesycone frazami)
    *pomocna może być wtyczka SEOquake bądź dodatek do FireFox – web developer

I. Znaczniki mikrodanych

  • Sprawdzenie użycia mikrodanych (czy nie ma błędów w implementacji oraz czy wszystkie parametry są prawidłowo zdefiniowane)
  • Zweryfikować czy użyte formuły zostały zaimplementowane zgodnie z przeznaczeniem?

*do testów można użyć narzędzia Google – https://search.google.com/structured-data/testing-tool

narzędzie do testowania danych strukturalnych

przykładowy wynik wskazany przez narzędzie do testowania danych strukturalnych

J. Linki wewnętrzne i zewnętrzne

  • Zweryfikować czy linki nie dublują się i jakie mają anchor text (ważne jest także to czy nie zostały usunięte / zmodyfikowane jakieś partie odnośników oraz czy nie zostały oznaczone jako nofollow)
  • Sprawdzić do jakich domen prowadzą linki wychodzące (czy domeny są zaufane, czy działają i czy nie przybyło jakiś niechcianych linków)?
  • Zweryfikować jakie są użyte anchor texty i jaki mają parametr (follow / nofollow, ile jest linków wychodzących, jak zoptymalizowane są linki site-wide)

*przydatna może być wtyczka SEOquake

K. Czas ładowania i odpowiedzi serwera

  • Sprawdzić czy nie ma (nie było) problemów z działaniem serwera (brak bądź zbyt długi czas odpowiedzi, awarie, niedostępność itp.).
  • Zweryfikować jak długi jest aktualny czas odpowiedzi serwera

L. Skrypt i wtyczki

  • Zweryfikować czy witryna działa na aktualnej wersji skryptu oraz czy przy ostatniej aktualizacji nie pojawiły się błędy
  • Przeanalizować zainstalowane dodatki i wtyczki (ocenić czy każda z nich spełnia swoją rolę, jest potrzebna, nie zawiera błędów i jest zaktualizowana oraz sprawdzić czy nowo dodane wtyczki nie wchodzą ze sobą w konflikt)

 

3. Dokładna analiza danych z Google Search Console

Podczas diagnozowania błędów niezbędny jest dostęp do danych w narzędziu Google Search Console. Za jego pośrednictwem można dość szybko ocenić źródło problemów. Zdarza się również, że to Google pierwsze poinformuje nas o błędach zanim jeszcze zaobserwujemy jakiekolwiek negatywne zmiany w pozycjach czy ruchu organicznym.

A. Wiadomości

  • Sprawdzić czy na koncie nie pojawiły się jakieś wiadomości
  • Zweryfikować czy Google nie sygnalizowało nieprawidłowe działanie jakiegoś elementu (poprzez wiadomość mailową)?

przykład powiadomienia o wykrytych błędach

B. Działania ręczne

  • Sprawdzić czy nie ma kary ręcznej (GSC — Ruch związany z wyszukiwaniem — Ręczne działania)

C. Analityka wyszukiwania

  • Sprawdzić jak w ciągu ostatnich 28 dni zmieniły się wyświetlenia, kliknięcia i średnia pozycja (zobaczyć jakich fraz dotyczą spadki, czy ma to związek ze zmianą pozycji czy wahania są sezonowe)
  • Ocenić jak zmieniły się dane biorąc pod uwagę zawężenie do adresów podstron (chodzi o sprawdzenie czy spadki dotknęły całej witryny czy jej części bądź pojedynczych adresów)
  • Porównać jak zmienił się ruch na desktop i na mobile

D. Błędy indeksowania

  • Sprawdzić czy poszczególne sekcje bądź adresy nie pojawiają się jako błędnie zaindeksowane
  • Zweryfikować listę błędów 404 i pozornych 404
  • Sprawdzić czy nie ma błędów 500
  • Sprawdzić jak Google renderuje stronę (GSC — Indeksowanie — Błędy indeksowania — Pobierz jako Google)
  • Sprawdzić stan indeksowania – nagły spadek sugeruje problemy techniczne (GSC – Indeks Google – Stan indeksowania)
błędy serwera

błędy serwera wskazane w GSC

E. Mapa xml

  • Sprawdzić jakie adresy znajdują się w mapie (czy są tam ważne URLe oraz te, które zanotowały spadki)
  • Zweryfikować ile czasu minęło od ostatniej aktualizacji mapy (być może należy dodać / usunąć z niej jakieś adresy)
  • Sprawdzić czy narzędzie sygnalizuje błędy w mapie

F. Ewentualne duplikaty

  • Sprawdzić czy Google wykrywa adresy z identycznymi ustawieniami meta tagów mogące być kopiami / duplikatami stron (GSC — Wygląd w wyszukiwarce — Udoskonalenia html – Podwójne metaopisy)

G. Mobile

  • Sprawdzić czy są błędy dotyczące wyświetlania się na mobile (GSC — Ruch związany z wyszukiwaniem — Obsługa na urządzeniach mobilnych
  • Jeśli jest osobna wersja mobilna typu m.domena.pl to sprawdzić jak się zachowuje i co się indeksuje

H. Bezpieczeństwo

  • Czy Google sygnalizuje problemy z bezpieczeństwem?

I.  Linki

  • Sprawdzić czy nie przybyło dużo nowych linków złej / słabej jakości
  • Zweryfikować domeny z największą ilością linków (czy działają, jaka jest och aktualna zawartość, czy zmieniły się parametry linków itd.)

J. Hreflang i wersje językowe

  • Sprawdzić Czy ustawienia wersji językowych są poprawne (jaka lokalizacja jest wskazana jako wyjściowa – GSC — Ruch związany z wyszukiwaniem — Kierowanie międzynarodowe)
  • Zweryfikować czy nie ma nowych błędów związanych z ustawieniami dotyczącymi wersji językowych?
  • Upewnić się czy każdy adres w kodzie ma wskazanie na inne wersje i na siebie samego (oraz czy jest powiązany z canonicalem).

* zgodnie z wypowiedzą Johna Muellera href lang musi być wdrożony i sparowany razem z canonicalem

błędy hreflang

błędy hreflang

 

4. Analiza profilu linków zwrotnych

Jeśli diagnoza ustawień witryny pod kątem SEO i badanie wskazań w GSC nie przyniosło rezultatów warto przejść do sprawdzenia możliwych zmian w profilu linków. W tym miejscu należy wykorzystać narzędzia takie jak MajesticSEO, Ahrefs czy Clusteric.

A. Profil linków

  • Sprawdzić jak wygląda profil świeży vs. historyczny (jakościowo i i ilościowo)
  • Ocenić czy linki przyrastają (czy też np. liczba odnośników spada)?
  • Porównać jakie są proporcje w odnośnikach z atrybutem follow / nofollow (i czy coś zmieniło się niedawno w tym zakresie)
  • Ocenić czy profil jest zróżnicowany biorąc pod uwagę formę linków (grafika, referral, text, frame)
  • Zobaczyć czy zmieniły się parametry odnoszące się do profilu linków (jak np. trust flow itd).
zmiany w liczbie domen referujących

zmiany w liczbie domen referujących na podstawie Ahrefs

B.

  • Sprawdzić jakich linków przybyło / ubyło (chodzi o sprawdzenie jaki może być ich wpływ na profil oraz czy ewentualny przyrost / spadek nie jest zbyt gwałtowny
  • Ocenić czy pojawiły się przypadkowe linki z niepożądanych źródeł
  • Ocenić tematykę i jakość aktualnie znalezionych backlinków
  • Sprawdzić ile backlinków kieruje na poszczególne strony i jak tam kształtuje się profil
  • Zweryfikować czy nowo dodane linki są już zaindeksowane?

C. Domeny referujące

  • Sprawdzić jakich domen przybyło / ubyło (jaki mógł być ich wpływ na profil)
  • Ocenić czy profil jest względnie naturalny?
  • Sprawdzić jak wyglądają linki site-wide (i czy coś się zmieniło jeśli o nie chodzi – ilość / jakość / anchor text itd.).

D. Anchor text

  • Ocenić jak wygląda procentowy udział poszczególnych fraz w całym profilu (czy frazy „sprzedażowe” odcinają się w na tle pozostałych słów)
  • Sprawdzić, która grupa linkowanych fraz najmocniej przyrosła w ostatnim czasie (czy nie były to „przypadkiem” frazy sprzedażowe)
  • Sprawdzić na jakie podstrony kierują frazy (czy na skutek błędnego linkowanie nie pojawiła się kanibalizacja)
  • Zweryfikować czy na stronach do których prowadzą linki dodane są w treści frazy na które domena miała wcześniej wysokie pozycje
  • Przeanalizować czy nie pojawiły się wśród anchor text podejrzane frazy (viagra, sex i „chińskie znaczki” itp.)?
linki

niepożądane anchor text – dane z Majestic

E. Rozkład na podstrony

  • Sprawdzić, które adresy są linkowane (i czy nie ma zbyt dużych dysproporcji pomiędzy stronami, typu 500 backlinków na jedną podkategorie gdzie pozostałe nie są linkowane wcale?
  • Ocenić jakie są proporcje pomiędzy linkowaniem strony głównej z resztą adresów
  • Sprawdzić czy w sieci nadal znajdują się linki do przekierowanych adresów i czy przekierowania działają poprawnie (zdarza się bowiem, że stare linki naturalnie przestają istnieć i nie przenoszą już mocy)

 

5. Sprawdzenie danych dotyczących widoczności i trendów

Zdarza się, że spadki w ruchu organicznym nie są wynikiem problemów z witryną, ale wynikają z sezonowości i np. mniejszej aktywności użytkowników.

A. Google Analytics

  • Ocenić czy faktycznie zmienił się ruch organiczny (jak zmieniały się trendy w ciągu ostatniego tygodnia, miesiąca i roku oraz w porównaniu do analogicznych okresów)?
  • Porównać ruch z organic z trendami związanymi z ruchem z innych kanałów (czy są różnice i czy dane się pokrywają – to może wskazywać na sezonowość)?
  • Sprawdzić jak zmienia się ilość sesji z organic na poszczególnych podstronach?
  • Zweryfikować czy zmieniły się parametry jakościowe (konwersja, współczynnik odrzuceń, czas na stronie, strony na sesję itd.)?

B. Senuto i Semstorm

  • Ocenić jak zmieniała się widoczność witryny w top3, top10 i top50
  • Sprawdzić dla jakich fraz widoczność się zwiększyła / zmniejszyła
  • Zweryfikować czy zmieniła się struktura wyników (czy domena straciła widoczność np. w mapach Google bądź wynik prezentowany jako direct answer)
  • Ocenić jak zmienia się ruch względem sezonu (jak duża jest sezonowość witryny i czy przypadkiem nie ma teraz okresu „pod kreską”)
  • Przeanalizować co dzieje się z konkurencją (czy dla witryn z „branży” również pojawiły się wahania i czy dotyczą one mały witryn czy też „dużych graczy”
zmiany w widoczności

zmiany w widoczności na podstawie Senuto

C. Trendy (Google Trends)

  • Sprawdzić jak kształtowały się trendy wyszukań w ostatnim miesiącu, kwartale i roku dla różnych fraz (czy przypadkiem spadki nie są cykliczne w danym okresie w ciągu roku i czy w sposób naturalny nie uległ zmianie sposób kierowania zapytań do wyszukiwarki – mam tu na myśli to, że użytkownicy coraz rzadkiej pytają o frazy generyczne, jednowyrazowe a częściej używają bardziej precyzyjnych, rozbudowanych złożeń).
trendy związane z wyszukiwaniem fraz

trendy związane z wyszukiwaniem fraz i zmiany wyszukań w ciągu roku

D. Narzędzia monitorujące zmiany w SERP (typu mozcast.com) oraz branżowe blogi

  • Sprawdzić czy narzędzia notują większe niż zwykle zmiany w wynikach wyszukiwania
  • Zajrzeć na fora czy grupy powiązane z SEO i podpytać czy inni też obserwują liczniejsze spadki / wzrosty
  • Prześledzić aktualne publikacje dotyczące zmian w algorytmie

 

Wskazane wyżej elementy (mimo, że jest ich ponad 100) typowałabym jako te, które należy weryfikować w pierwszej kolejności. To one są najczęściej odpowiedzialne za zmiany w pozycjach, widoczności i ruchu organicznym. Rzadko kiedy zdarza się tak, by nie udało się zdiagnozować bezpośredniej przyczyny pogarszających się wyników. Im więcej punków na liście oznaczonych jako „problematyczne” tym więcej dalszej pracy optymalizacyjnej i diagnostycznej do wykonania. Również w SEO nieszczęścia chodzą parami – mam tu na myśli to, że często np. problemy jednym elementem oraz razu przekładają się na inne nieprawidłowości (np. błędy z przekierowaniami przekładają się na generowanie się duplikatów itp.).

Czasem jednak zdarza się i tak, że mimo gruntownego sprawdzenia wszystkich przychodzących nam do głowy opcji nie znajdziemy przyczyny spadków – niestety Google rządzi się swoimi prawami i niejednokrotnie w wyniku błędu, w efekcie testowania nowych rozwiązań czy na skutek korekty w algorytmie pozycje czasowo spadają. W takim przypadku należy uzbroić się w cierpliwość i monitorować temat a po pewnym czasie znów wyjąć z szuflady checklistę i rozpocząć weryfikację od nowa 😉