W branży SEO/SEM Google Analytics jest kluczowym narzędziem, wpływającym na mierzalność efektów działań. Co jednak zrobić, gdy klient utraci dostęp do statystyk strony? Jak odzyskać utracony dostęp do Analytics? Proces ten jest łatwiejszy, niż Wam się wydaje.
Gdy nawiązujemy współpracę z klientem, jedną z pierwszych czynności, które podejmujemy jest uzyskanie dostępów do Google Search Console oraz Google Analytics (tudzież ich instalacja). W zeszłym tygodniu spotkałam się jednak z dość nietypowym problemem - utraconym dostępem do konta Google Analytics. Poprzedni pracownik firmy, wraz ze swoim odejściem, nie zostawił danych logowania do statystyk, przez co gromadzone od wielu lat informacje dotyczące ruchu na stronie były niedostępne ani dla nas, ani dla klienta.
W teorii mogliśmy wdrożyć nowy kod śledzenia, jednak oznaczałoby to zbieranie danych zupełnie od nowa, bez możliwości porównania do archiwalnych. Spróbowaliśmy zatem odzyskać dostęp do Google Analytics. Jest to problem, jak podejrzewam, dość niszowy i zaskakujący w naszej branży, ale jak się okazuje, też dość łatwy do rozwiązania. Poniżej przedstawiam proces odzyskiwania dostępu do Google Analytics w trzech prostych krokach.
Omówione rozwiązanie dotyczy sytuacji, w której nie znamy konta Google, które ma prawa administracyjne (Zarządzanie użytkownikami i edycja) dla danego kodu śledzenia. W sytuacji, gdy jest ono znane, warto najpierw spróbować odzyskać dostęp bezpośrednio do niego.
Utracony dostęp do Analyticsa - odzyskiwanie krok po kroku
1. Kontakt z Google - opisanie problemu
Pierwszym krokiem do rozwiązania problemu braku dostępu do Google Analytics jest kontakt bezpośrednio z Google za pomocą formularza kontaktowego dostępnego pod tym adresem. Konieczne jest podanie kilku istotnych informacji:
Imię i nazwisko;
Kontaktowy adres e-mail - w naszym przypadku, formularz wypełniliśmy za klienta, podając jego adres e-mail, ze względu na powiązanie z domeną, której dotyczy problem. Klient następnie przekazywał nam korespondencję od Google.
Witryna internetowa (której dotyczy problem);
Nazwa ostatniego znanego użytkownika - tu podaliśmy ponownie nasz adres e-mail będący kontem Google - klient nie znał przecież innego adresu.
Podsumowanie problemu - szczegółowy opis problemu (do 1000 znaków). W naszym wypadku (opisując sytuację z perspektywy klienta) wyjaśniliśmy, że nie mamy kontaktu z byłym pracownikiem firmy, który zajmował się tematem analityki i nie mamy możliwości samodzielnie odzyskać dostępu do Google Analytics.
Forma kontaktu - wybór sposobu, w jaki konsultant Google ma kontaktować się w sprawie nadania dostępów. My wybraliśmy kontakt jedynie przez e-mail, który klient z łatwością będzie mógł do nas przekierować. Kroki 2-3 dotyczą właśnie kontaktu e-mail i ze względu na jego prostotę, to rozwiązanie rekomenduję.
Pozostałe pola mogą pozostać nieuzupełnione.
2. Oczekiwanie na kontakt ze strony administratora Waszego konta Google Analytics
Google skontaktowało się z naszym klientem w ciągu 1 godziny. Sam proces okazał się bardzo przejrzysty:
Konsultant Google nawiązuje próbę kontaktu z adresem e-mail mającym prawa do zarządzania użytkownikami dla danego konta Analytics. Użytkownik adresu otrzymuje 2 dni robocze na kontakt z osobą wypełniającą formularz, w przypadku jego braku lub braku dojścia do porozumienia, przechodzimy do kroku 3-go - potwierdzenia własności domeny.
3. Potwierdzenie własności domeny - wdrożenie pliku analytics.txt
Ostatnim, trzecim krokiem odzyskiwania dostępu do Google Analytics jest weryfikacja własności domeny, której dotyczy problem. Proces ten jest w zasadzie analogiczny do weryfikacji Google Search Console poprzez przesłanie pliku html.
Konsultant Google przekazuje nam fragment tekstu, który należy zapisać w pliku tekstowym "analytics.txt" oraz przesłać na serwer FTP w taki sposób, aby był on dostępny pod adresem:
nazwa-Waszej-domeny.pl/analytics.txt
Warto dopilnować systemu kodowania znaków, w którym zapisywany jest plik (powinien być zgodny z docelowym systemem). W przeciwnym wypadku mogą pojawić się problemy z odczytaniem zawartości pliku. Niemniej jednak weryfikacja ma charakter ręczny, stąd w wielu przypadkach, nawet pomimo błędów w kodowaniu, z dużym prawdopodobieństwem plik zostanie uznany.
Następnie, w odpowiedzi na przesłaną przez konsultanta instrukcję, należy poinformować Google o przesłaniu pliku.
W ciągu zaledwie piętnastu minut od przesłania informacji, nasz klient otrzymał dostęp do swojego Google Analytics. Cały proces potrwał zatem 2,5 dnia.
Nagłe pogorszenie pozycji, spadki w ruchu organicznym czy niekorzystne zmiany trendów związanych z widoczności sprawiają, że nie pozostaje nam nic innego, jak zabawa w detektywa i poszukiwanie elementów, który mogły wpłynąć na taki stan rzeczy. Problemy z działaniem serwera, aktualizacja algorytmu, kara ręczna, nieprawidłowa indeksacja podstron a może atak hakerski? Możliwa lista przyczyn które mogły spowodować spadek jest dość długa.
Zainspirowana naszymi niedawnymi poszukiwaniami oraz ostatnim artykułem Szymona Słownika w tym temacie postanowiłam spisać ponad sto punktów, które można potraktować jako checklistę przy poszukiwaniu przyczyn spadków domeny w wynikach wyszukiwania. Przy okazji każdej takiej analizy dobrze jest użyć narzędzi, które kompleksową przeskanują całą zawartość witryny pod kątem SEO i zdiagnozują wiele potencjalnych problemów. Mam tu na myśli np. Deepcrawl, Sitebulb, Screaming Frog czy Clusteric. Do szybkiego sprawdzenia „od ręki” poszczególnych punktów można użyć dedykowanych wtyczek czy narzędzi dostępnych online (o kilku z nich napisałam niżej).
1. Analiza danych z poziomu wyszukiwarki i narzędzia
Od czego zacząć? Na przykład od ręcznego zweryfikowania tego czy wskazane przez narzędzia do monitorowania pozycji wyniki mają odzwierciedlenie w rzeczywistości 😛 Nim ogłosimy alarm warto po prostu zweryfikować poprawność danych. Na pewno nie tylko ja miałam okazje nieźle się zdziwić, gdy po zalogowaniu do panelu pozycji zobaczyłam same czerwone cyferki. Na szczęście w kilku przypadkach dość szybko okazało się, że to nic innego jak błąd narzędzia. Przy sprawdzaniu ręcznym wyniki były poprawne. Jeśli jednak narzędzia się nie mylą pozostaje nam (czasem długie i żmudne) poszukiwanie przyczyn spadków i wykrywanie ewentualnych błędów.
A. Pozycje fraz
Sprawdzić, dla których fraz pozycje się wahają (pomoże to ustalić czy ewentualny problem dotyczy całej witryny czy np. tylko jednej sekcji / grupy podstron)
Wytypować podstrony, których dotyczy problem (by rozpocząć dalsze analizowanie od tych adresów)
Zweryfikować czy zmienił się typ wyniku (dla przykładu, spadek może wynikać z tego, że wcześniej witryna wyświetlała się w mapach Google na konkretną frazę)
Sprawdzić czy nie zachodzi kanibalizacja (dość często zdarza się, że ze względu na istnienie dwóch lub więcej rywalizujących ze sobą podstron, zoptymalizowanych pod te same frazy, Google wyświetla na zmianę w wynikach adres którejś z nich bądź czasowo eliminuje wszystkie z top10).
Zweryfikować obecność w mapach Google i związane z tym wahania (sprawdzić, czy nadal nie straciliśmy miejsc w mapkach)
B. Wyniki wyszukiwania
Określić czy zmieniła się struktura wyników (doszły / wypadły mapy, grafy wiedzy, direct answer itd., które mogły zaburzyć dotychczasowy sposób prezentowania wyników)
Sprawdzić jak „wizualnie” wygląda wynik dla danej podstrony (czy coś się zmieniło / czy pojawiło się coś niepokojącego)
Zweryfikować co wyświetla się w title i descriprion i czy pokrywa się to z kodem strony?
Sprawdzić czy adres URL wyświetla się prawidło i czy jest to strona, która dotąd rankowała na daną frazę?
Upewnić się czy nie ma podejrzanych oznaczeń (np. informacji o tym, że witryna może zawierać szkodliwe oprogramowanie bądź miał miejsce atak hakerski)
C. Cache
Sprawdzić czy strony, które zanotowały spadki spadają, mają cache (jeśli adres to tej pory bez problemu się indeksował warto sprawdzić m.in. komendy dotyczące indeksacji)
Upewnić się jaki adres został zaindeksowany i czy jest to na pewno ten, który rankował wcześniej (uwaga np. na trailing slash i adresy z protokołem http i https)
Ocenić datę zaindeksowania (jeśli cache jest świeży i są w nim jakieś zmiany można wykryć część niezgodności porównując go np. ze starszym cache przechowywanym przez Bing)
Zobaczyć co jest w wersji tekstowej i czy pokrywa się ona z aktualną zawartością strony (uwaga na ukryte elementy)
D. Site
Sprawdzić komendą site: jakie typy podstron pojawiają się na liście (chodzi m.in. o to by sprawdzić czy nie przybyło jakiś podejrzanych adresów).
Zweryfikować, czy znajdują się tam najważniejsze adresy (zweryfikować czy nie „wycięło” jakieś ważnej sekcji bądź puli adresów)
Czy site się znacząco zwiększył / zmniejszył?
Czy pojawiają się przypadkowe / niepożądane adresy? (fejkowe adresy mogą wskazywać na atak hakerski, czasem zdarza się, że przy zmianie komend dotyczących indeksacji w wynikach zaczynają masowo pojawiać się np. zablokowane dotąd adresy z parametrem itd.).
2. Analiza zawartości domeny pod kątem błędów
Pierwszy etap analizy powinien już wskazać kierunek dalszych poszukiwań. Jeśli przyczyna spadków tkwi w nieprawidłowych ustawieniach bądź wynika z błędów w optymalizacji warto zwrócić uwagę na takie elementy tak:
A. Indeksacja
Zweryfikować komendy odnoszące się do meta name="robots" (sprawdzić czy nie ma ustawień noindex bądź none)
Sprawdzić komendy z pliku robots.txt (upewnić się czy dana podstrona bądź grupa podstron nie jest blokowana)
* można to zrobić ręcznie bądź wykorzystać GSC, sekcja Indeksowanie -- tester pliku robots.txt)
B. Canonicale
Zweryfikować czy występują i czy są użyte tak samo jak w okresie poprzedzającym spadki pozycji
Sprawdzić jaki adres jest wskazywany (być może spadki wynikają z dodania błędnego canonicala bądź odesłania do niepoprawnego adresu)
Czy umiejscowienie canonicala w kodzie jest poprawne (czy jest w sekcji head i czy nie jest przypadkowo zaimplementowany np. dwukrotnie0
Sprawdzić czy są canonicale są dodane poprawnie na paginacji, sortowaniu itd.
*można zweryfikować to ręcznie bądź np. przy użyciu wtyczki SEOquake)
C. Przekierowania
Zweryfikować czy zmieniły się dotychczasowe ustawienia przekierowań
Sprawdzić czy przekierowania działają poprawnie (czy zwracany jest kod 301)
Upewnić się, że działają pomiędzy adresami z prefiksami i wersjami z protokołem (np. adresy z www są przekierowane na bez www oraz http przekierowuje na https)
Zweryfikować czy są przekierowania z adresów systemowych, stanowiących kopie (np. z adresu /index.php itd.)
Zweryfikować czy nie pojawiły się przekierowania 302 bądź 307
*poszczególne przekierowania można sprawdzać ręcznie, używając GSC bądź narzędzi online typu status checker jak np. https://httpstatus.io/
D. Kod źródłowy
Przejrzeć kod pod kątem składni (sprawdzić czy nie pojawiły się błędy i czy np. dana wtyczka nie generuje błędów)
Zwrócić uwagę na linki wychodzące (czy nie pojawiły się jakieś niechciane odnośniki będące efektem ataku hakerskiego i wstrzyknięcia fragmentu kodu)
Zwrócić uwagę na elementy z komendą hidden bądź display:none
*całość można zweryfikować ręcznie oraz z użyciem narzędzia typu html validator
E. Możliwe duplikaty
Sprawdzić czy nie ma duplikatów stron (przeklikując domenę i oceniając adresy pojawiające się w site)
Zweryfikować czy treść nie duplikuje się wewnętrznie i zewnętrznie
*Można to zrobić ręcznie (wpisując do wyszukiwarki fragment treści otoczony cudzysłowem) bądź używając narzędzi typu Copy Skape
F. Title i nagłówki
sprawdzić aktualne ustawień title i porównać z ustawienia z cache (zmiany takiej jak przesycenia słowami kluczowymi czy usunięcie dotychczas użytych fraz może wpływać na wahania)
*w razie potrzeby można posiłkować się danymi z narzędzia z archive.org (jeśli cache jest świeży bądź nie pamiętamy poprzednich ustawień)
sprawdzić zawartość nagłówków h1, h2, h3 (dla adresów, których dotyczyły spadki, sprawdzić czy nie ma przesycenia frazami bądź czy coś nie zostało usunięte)
G. Nasycenie frazami
zweryfikować obecność fraz na stronach (mam na myśli te słowa kluczowe, które uległy wahaniom i adresy, które rankowały na dane frazy)
oszacować Ilość złożeń ze słowami kluczowymi i uwzględnić obecność synonimów (chodzi o to by upewnić się czy np. ostatnio wprowadzone zmiany nie sprawiły, że strona jest przesycona frazami bądź czy nie występują one tylko w jednej formie – np. wyłącznie w l. pojedynczej)
ocenić umiejscowienie fraz w treści (czy jest proporcjonalne)
H. Grafika
ocenić wypełnienie altów (sprawdzić czy jest poprawne i czy nie zostało przeoptymalizowane / przesycone frazami)
*pomocna może być wtyczka SEOquake bądź dodatek do FireFox - web developer
I. Znaczniki mikrodanych
Sprawdzenie użycia mikrodanych (czy nie ma błędów w implementacji oraz czy wszystkie parametry są prawidłowo zdefiniowane)
Zweryfikować czy użyte formuły zostały zaimplementowane zgodnie z przeznaczeniem?
Zweryfikować czy linki nie dublują się i jakie mają anchor text (ważne jest także to czy nie zostały usunięte / zmodyfikowane jakieś partie odnośników oraz czy nie zostały oznaczone jako nofollow)
Sprawdzić do jakich domen prowadzą linki wychodzące (czy domeny są zaufane, czy działają i czy nie przybyło jakiś niechcianych linków)?
Zweryfikować jakie są użyte anchor texty i jaki mają parametr (follow / nofollow, ile jest linków wychodzących, jak zoptymalizowane są linki site-wide)
*przydatna może być wtyczka SEOquake
K. Czas ładowania i odpowiedzi serwera
Sprawdzić czy nie ma (nie było) problemów z działaniem serwera (brak bądź zbyt długi czas odpowiedzi, awarie, niedostępność itp.).
Zweryfikować jak długi jest aktualny czas odpowiedzi serwera
L. Skrypt i wtyczki
Zweryfikować czy witryna działa na aktualnej wersji skryptu oraz czy przy ostatniej aktualizacji nie pojawiły się błędy
Przeanalizować zainstalowane dodatki i wtyczki (ocenić czy każda z nich spełnia swoją rolę, jest potrzebna, nie zawiera błędów i jest zaktualizowana oraz sprawdzić czy nowo dodane wtyczki nie wchodzą ze sobą w konflikt)
3. Dokładna analiza danych z Google Search Console
Podczas diagnozowania błędów niezbędny jest dostęp do danych w narzędziu Google Search Console. Za jego pośrednictwem można dość szybko ocenić źródło problemów. Zdarza się również, że to Google pierwsze poinformuje nas o błędach zanim jeszcze zaobserwujemy jakiekolwiek negatywne zmiany w pozycjach czy ruchu organicznym.
A. Wiadomości
Sprawdzić czy na koncie nie pojawiły się jakieś wiadomości
Zweryfikować czy Google nie sygnalizowałonieprawidłowe działanie jakiegoś elementu (poprzez wiadomość mailową)?
B. Działania ręczne
Sprawdzić czy nie ma kary ręcznej (GSC -- Ruch związany z wyszukiwaniem -- Ręczne działania)
C. Analityka wyszukiwania
Sprawdzić jak w ciągu ostatnich 28 dni zmieniły się wyświetlenia, kliknięcia i średnia pozycja (zobaczyć jakich fraz dotyczą spadki, czy ma to związek ze zmianą pozycji czy wahania są sezonowe)
Ocenić jak zmieniły się dane biorąc pod uwagę zawężenie do adresów podstron (chodzi o sprawdzenie czy spadki dotknęły całej witryny czy jej części bądź pojedynczych adresów)
Porównać jak zmienił się ruch na desktop i na mobile
D. Błędy indeksowania
Sprawdzić czy poszczególne sekcje bądź adresy nie pojawiają się jako błędnie zaindeksowane
Zweryfikować listę błędów 404 i pozornych 404
Sprawdzić czy nie ma błędów 500
Sprawdzić jak Google renderuje stronę (GSC -- Indeksowanie -- Błędy indeksowania -- Pobierz jako Google)
Sprawdzić stan indeksowania – nagły spadek sugeruje problemy techniczne (GSC – Indeks Google – Stan indeksowania)
E. Mapa xml
Sprawdzić jakie adresy znajdują się w mapie (czy są tam ważne URLe oraz te, które zanotowały spadki)
Zweryfikować ile czasu minęło od ostatniej aktualizacji mapy (być może należy dodać / usunąć z niej jakieś adresy)
Sprawdzić czy narzędzie sygnalizuje błędy w mapie
F. Ewentualne duplikaty
Sprawdzić czy Google wykrywa adresy z identycznymi ustawieniami meta tagów mogące być kopiami / duplikatami stron (GSC -- Wygląd w wyszukiwarce -- Udoskonalenia html – Podwójne metaopisy)
G. Mobile
Sprawdzić czy są błędy dotyczące wyświetlania się na mobile (GSC -- Ruch związany z wyszukiwaniem -- Obsługa na urządzeniach mobilnych
Jeśli jest osobna wersja mobilna typu m.domena.pl to sprawdzić jak się zachowuje i co się indeksuje
H. Bezpieczeństwo
Czy Google sygnalizuje problemy z bezpieczeństwem?
I. Linki
Sprawdzić czy nie przybyło dużo nowych linków złej / słabej jakości
Zweryfikować domeny z największą ilością linków (czy działają, jaka jest ich aktualna zawartość, czy zmieniły się parametry linków itd.)
J. Hreflang i wersje językowe
Sprawdzić Czy ustawienia wersji językowych są poprawne (jaka lokalizacja jest wskazana jako wyjściowa - GSC -- Ruch związany z wyszukiwaniem -- Kierowanie międzynarodowe)
Zweryfikować czy nie ma nowych błędów związanych z ustawieniami dotyczącymi wersji językowych?
Upewnić się czy każdy adres w kodzie ma wskazanie na inne wersje i na siebie samego (oraz czy jest powiązany z canonicalem).
Jeśli diagnoza ustawień witryny pod kątem SEO i badanie wskazań w GSC nie przyniosło rezultatów warto przejść do sprawdzenia możliwych zmian w profilu linków. W tym miejscu należy wykorzystać narzędzia takie jak MajesticSEO, Ahrefs czy Clusteric.
A. Profil linków
Sprawdzić jak wygląda profil świeży vs. historyczny (jakościowo i i ilościowo)
Ocenić czy linki przyrastają (czy też np. liczba odnośników spada)?
Porównać jakie są proporcje w odnośnikach z atrybutem follow / nofollow (i czy coś zmieniło się niedawno w tym zakresie)
Ocenić czy profil jest zróżnicowany biorąc pod uwagę formęlinków (grafika, referral, text, frame)
Zobaczyć czy zmieniły się parametry odnoszące się do profilu linków (jak np. trust flow itd).
B. Backlinki
Sprawdzić jakich linków przybyło / ubyło (chodzi o sprawdzenie jaki może być ich wpływ na profil oraz czy ewentualny przyrost / spadek nie jest zbyt gwałtowny
Ocenić czy pojawiły się przypadkowe linki z niepożądanych źródeł
Ocenić tematykę i jakość aktualnie znalezionych backlinków
Sprawdzić ile backlinków kieruje na poszczególne strony i jak tam kształtuje się profil
Zweryfikować czy nowo dodane linki są już zaindeksowane?
C. Domeny referujące
Sprawdzić jakich domen przybyło / ubyło (jaki mógł być ich wpływ na profil)
Ocenić czy profil jest względnie naturalny?
Sprawdzić jak wyglądają linki site-wide (i czy coś się zmieniło jeśli o nie chodzi - ilość / jakość / anchor text itd.).
D. Anchor text
Ocenić jak wygląda procentowy udział poszczególnych fraz w całym profilu (czy frazy „sprzedażowe” odcinają się w na tle pozostałych słów)
Sprawdzić, która grupa linkowanych fraz najmocniej przyrosła w ostatnim czasie (czy nie były to „przypadkiem” frazy sprzedażowe)
Sprawdzić na jakie podstrony kierują frazy (czy na skutek błędnego linkowanie nie pojawiła się kanibalizacja)
Zweryfikować czy na stronach do których prowadzą linki dodane są w treści frazy na które domena miała wcześniej wysokie pozycje
Przeanalizować czy nie pojawiły się wśród anchor text podejrzane frazy (viagra, sex i „chińskie znaczki” itp.)?
E. Rozkład na podstrony
Sprawdzić, które adresy są linkowane (i czy nie ma zbyt dużych dysproporcji pomiędzy stronami, typu 500 backlinków na jedną podkategorie gdzie pozostałe nie są linkowane wcale?
Ocenić jakie są proporcje pomiędzy linkowaniem strony głównej z resztą adresów
Sprawdzić czy w sieci nadal znajdują się linki do przekierowanych adresów i czy przekierowania działają poprawnie (zdarza się bowiem, że stare linki naturalnie przestają istnieć i nie przenoszą już mocy)
5. Sprawdzenie danych dotyczących widoczności i trendów
Zdarza się, że spadki w ruchu organicznym nie są wynikiem problemów z witryną, ale wynikają z sezonowości i np. mniejszej aktywności użytkowników.
A. Google Analytics
Ocenić czy faktycznie zmienił się ruchorganiczny (jak zmieniały się trendy w ciągu ostatniego tygodnia, miesiąca i roku oraz w porównaniu do analogicznych okresów)?
Porównać ruch z organic z trendami związanymi z ruchem z innych kanałów (czy są różnice i czy dane się pokrywają – to może wskazywać na sezonowość)?
Sprawdzić jak zmienia się ilość sesji z organic na poszczególnych podstronach?
Zweryfikować czy zmieniły się parametry jakościowe (konwersja, współczynnik odrzuceń, czas na stronie, strony na sesję itd.)?
B. Senuto i Semstorm
Ocenić jak zmieniała się widoczność witryny w top3, top10 i top50
Sprawdzić dla jakich fraz widoczność się zwiększyła / zmniejszyła
Zweryfikować czy zmieniła się struktura wyników (czy domena straciła widoczność np. w mapach Google bądź wynik prezentowany jako direct answer)
Ocenić jak zmienia się ruch względem sezonu (jak duża jest sezonowość witryny i czy przypadkiem nie ma teraz okresu „pod kreską”)
Przeanalizować co dzieje się z konkurencją (czy dla witryn z „branży” również pojawiły się wahania i czy dotyczą one mały witryn czy też „dużych graczy”
C. Trendy (Google Trends)
Sprawdzić jak kształtowały się trendy wyszukań w ostatnim miesiącu, kwartale i roku dla różnych fraz (czy przypadkiem spadki nie są cykliczne w danym okresie w ciągu roku i czy w sposób naturalny nie uległ zmianie sposób kierowania zapytań do wyszukiwarki – mam tu na myśli to, że użytkownicy coraz rzadkiej pytają o frazy generyczne, jednowyrazowe a częściej używają bardziej precyzyjnych, rozbudowanych złożeń).
trendy związane z wyszukiwaniem fraz i zmiany wyszukań w ciągu roku
D. Narzędzia monitorujące zmiany w SERP (typu mozcast.com) oraz branżowe blogi
Sprawdzić czy narzędzia notują większe niż zwykle zmiany w wynikach wyszukiwania
Zajrzeć na fora czy grupy powiązane z SEO i podpytać czy inni też obserwują liczniejsze spadki / wzrosty
Prześledzić aktualne publikacje dotyczące zmian w algorytmie
Wskazane wyżej elementy (mimo, że jest ich ponad 100) typowałabym jako te, które należy weryfikować w pierwszej kolejności. To one są najczęściej odpowiedzialne za zmiany w pozycjach, widoczności i ruchu organicznym. Rzadko kiedy zdarza się tak, by nie udało się zdiagnozować bezpośredniej przyczyny pogarszających się wyników. Im więcej punków na liście oznaczonych jako „problematyczne” tym więcej dalszej pracy optymalizacyjnej i diagnostycznej do wykonania. Również w SEO nieszczęścia chodzą parami – mam tu na myśli to, że często np. problemy jednym elementem oraz razu przekładają się na inne nieprawidłowości (np. błędy z przekierowaniami przekładają się na generowanie się duplikatów itp.).
Czasem jednak zdarza się i tak, że mimo gruntownego sprawdzenia wszystkich przychodzących nam do głowy opcji nie znajdziemy przyczyny spadków - niestety Google rządzi się swoimi prawami i niejednokrotnie w wyniku błędu, w efekcie testowania nowych rozwiązań czy na skutek korekty w algorytmie pozycje czasowo spadają. W takim przypadku należy uzbroić się w cierpliwość i monitorować temat a po pewnym czasie znów wyjąć z szuflady checklistę i rozpocząć weryfikację od nowa 😉