More

    DBF#14: Zasada Pareta w planowaniu strategii SEO cz.2. O pracy z wyszukiwarką i weryfikacji strategii.

    Przystępując do samodzielnej optymalizacji strony pod kątem wyszukiwarki Google, koniecznie musisz dowiedzieć się:

    • Jak robot Google widzi Twoją stronę?
    • Jak wychwycić błędy?
    • Jak pracować nad pozycjami i widocznością strony krok po kroku?
    • Jak wyznaczyć frazy i podstrony do pracy?
    • Jak wygenerować wyższy ruch organiczny pracą nad CTR?

    W drugim odcinku z cyklu „Zasada Pareta w planowaniu strategii SEO”, Ewelina Podrez podpowiada, jak weryfikować indeksację strony internetowej i pracować z rankingiem wyszukiwania, by zwiększyć ruch (i dzięki temu sprzedaż) na stronie internetowej.

    Wspominane w odcinku zapytania do Google

    site:nazwadomeny.pl - weryfikacja zaindeksowanych podstron w wynikach wyszukiwania
    
    cache:nazwadomeny.pl/adres-podstrony - weryfikacja kopii podręcznej danej podstrony

    Wspominane narzędzia

    Materiały dodatkowe

    Prezentacja z Online Marketing Day – Zasada Pareta w SEO dla e-commerce:

    VIDEO

    SLIDESHARE

    Prezentacja z Kolbuszowa 2.0 – Jak wycisnąć więcej z Twojego SEO dzięki pracy nad CTR

    VIDEO

    SLIDESHARE

    Transkrypcja odcinka

    Cześć, z tej strony Ewelina Podrez. Witam Cię w 14-tym odcinku “Dziennika Budowy Firmy” według Fox Strategy. Odcinek ten należy do ścieżki marketingowej, ale jednocześnie jest kontynuacją odcinka 13-go, który ukazał się w zeszłym tygodniu. Ostatnio rozmawialiśmy o strategicznym podejściu do działań SEO, do działań marketingowych, które jednocześnie jest bardzo przydatne przy wszelkich analizach własnego biznesu. Rozmawialiśmy o analizie konkurencji, analizie trendów, doborze słów kluczowych. Dziś skupimy się bardziej nad tym jak pracować z rankingiem wyników wyszukiwania, jak stronę widzi robot wyszukiwarki oraz w jaki sposób tym zarządzać. Tym samym, odcinek z jednej strony jest kontynuacją wątków, które poruszaliśmy tydzień temu, natomiast myślę, że może się sprawdzić również indywidualnie. Lecz zanim zaczniemy, zapraszam Cię na jingiel.

    Cześć, witaj po przerwie. Jak wspominałam już we wstępie, porozmawiamy dzisiaj o tym jak robot wyszukiwarki widzi Twoją stronę, jak możesz tym zarządzać oraz o tym, w jaki sposób możesz pracować z rankingiem wyszukiwania, czyli ze skutecznością w Search Console. W dalszym etapie porozmawiamy również o tym jak wyznaczać priorytety pracy nad SEO Twojego serwisu czy sklepu internetowego. Część tego wątku omawialiśmy już w poprzednim odcinku, do którego bardzo serdecznie Cię zapraszam. Ja tylko tutaj przypomnę, że poruszamy się w obrębie zasady Pareto, czyli minimalizacji zaangażowania i maksymalizacji efektu. Staramy się w ten sposób dobrać działania, żeby wybrać tych 20%, które będą przekładać się na 80% efektu.

    Co widzi robot wyszukiwarki?

    Aby móc w ogóle pracować nad działaniami SEO oraz rankingiem w wyniku wyszukiwania, musimy zacząć od takiego podstawowego zrozumienia w jaki sposób robot wyszukiwarki widzi strony internetowe. Tym co musisz zrozumieć jest to, że robot wyszukiwarki bardziej widzi kod strony niż to, co faktycznie się na niej znajduje. W związku z czym, może chodzić po miejscach, których nie spodziewasz się, że się znajdzie. Może przychodzić po podstronach, o których dawno już zapomniałeś, bądź zapomniałaś. Może również okazać się, że na Twojej stronie coś wygląda w określony sposób, a w wersji tekstowej cache’a, czyli w takim podglądzie jak robot wyszukiwarki indeksuje stronę, wygląda to zupełnie inaczej. Niektóre elementy są poukrywane albo są nieindeksowalne. I aby móc to sprawdzić, masz do tego kilka narzędzi.

    Weryfikacja site’a

    Pierwszym podstawowym jest po prostu wyszukiwarka Google. To co możesz zrobić, to cykliczna weryfikacja liczby podstron w site, jak i wyrywkowych adresów w tym site pojawiających się. Kiedy wpiszesz w wyszukiwarkę adres site: nazwa Twojej strony internetowej (czyli w naszym przypadku byłoby to site:foxstrategy.pl) dostaniesz wynik wyszukiwania wskazujący wszystkie zaindeksowane podstrony Twojego serwisu. Możesz tam sprawdzić czy na pewno dane podstrony powinny się w indeksie znaleźć, czy przypadkiem ta polityka prywatności nie powinna być wyłączona, czy jakiś dziwny znaczki nie pojawiają się w którymś z wyników wyszukiwania. Jest to też świetne narzędzie do wychwycenia pierwszych symptomów ataku hackerskiego, itd.

    To co możesz zrobić aby na bieżąco z tym pracować, to stworzenie tabeli w Excelu, która w miarę rozwoju będzie Ci pokazywać jak też zmienia się sposób indeksacji Twojej strony. Czyli przykładowo – na dzień dzisiejszy site wynosi tyle i tyle, w kolejnym tygodniu kiedy będziesz to weryfikował (bądź weryfikowała) również sprawdź ile podstron znajduje się w site. Dzięki temu będziesz w stanie rozpoznać ewentualne problemy, jeżeli nagle liczba podstron w site mocno Ci skoczy, a nie dokonywałeś/dokonywałaś żadnej zmiany na stronie internetowej, powinien to być dla Ciebie sygnał, że coś się dzieje nieprzewidzianego i warto to zweryfikować. Kiedy już wejdzie Ci w nawyk (i to bardzo Ci polecam) takie cykliczne weryfikowanie site i odnotowywanie wyników, zacznij pracować z cache’m. Dzięki temu będzie Ci łatwiej zrozumieć jak Twoją stronę internetową widzi robot wyszukiwarki.

    Weryfikacja cache’a

    Jeżeli pojęcie cache’a jest dla Ciebie czymś nowym, to w materiałach przygotowanych do tego odcinka na stronie foxstrategy.pl/podcast znajdziesz szczegółowo wypisane komendy do wyszukiwarki, którymi możesz to weryfikować. Natomiast jeżeli już znasz komendę cache, to wpisz w wyszukiwarkę cache: nazwa domeny, czyli naszym przypadku cache:foxstrategy.pl. Weryfikuj cyklicznie czy w wersji tekstowej znajdują się wszystkie treści danej podstrony.

    Oczywistym jest, że jeżeli prowadzisz sklep internetowy, a do tego sklepu internetowego będziemy odnosić się w tym podcaście najwięcej (ze względu na to, że są najczęściej większe, trochę bardziej skomplikowane i łatwiej tutaj mówić o zagadnieniach indeksacyjnych), to jeżeli miałbyś bądź miałabyś sprawdzać cache każdej możliwej podstrony, to bynajmniej nie jest to gra warta świeczki i na pewno nie jest to działanie zoptymalizowane w myśl zasady Pareta. Natomiast możesz weryfikować poszczególne typy podstron.

    Kiedy pracuję z moimi klientami zazwyczaj weryfikuję: stronę główną – cyklicznie, raz na tydzień-dwa, czy coś tam się zmienia i najważniejsze kategorie. Wybierz trzy, cztery kategorie w różny sposób zbudowane i weryfikuj co się znajduje w cache’u.

    Sprawdź losowe produkty – strona produktu bywa ważna w sklepie internetowym, nie tak jak kategoria, natomiast nadal – w związku z czym sprawdź poszczególne produkty czy indeksują się dobrze, czy indeksują się ich opisy, czy indeksują się grafiki, itd.

    Sprawdź również stronę filtrów. Filtry, w zależności od Twojej decyzji, mogą być indeksowalne bądź nie. Dużo tutaj zależy już od kwestii wyboru czy filtr ma być niezależny od kategorii i ma z nią nie rywalizować, czy też filtr ma być uszczegółowieniem kategorii i jest pewne ryzyko jeśli wyłączysz go z indeksacji. Jeśli indeksujesz jakiekolwiek filtry, sprawdź również dla nich cache. Jeżeli masz jakiekolwiek podstrony statyczne lub jakiekolwiek dodatkowe typy podstron, również to weryfikuj.

    I weryfikuj nie tylko cache’a, ale również klikaj w przycisk “wersja tekstowa”, dzięki czemu będziesz w stanie już przeczytać całą treść, którą widzi robot wyszukiwarki. Oczywiście, mówimy tu już bardziej o technicznych zagadnieniach i jeżeli jesteś osobą początkującą, to ten cache, ta wersja tekstowa mogą wydawać się zupełnie nieintuicyjne. Dlatego ponieważ ten podcast jest bardzo mocno związany z moją prezentacją podczas Online Marketing Day, to na stronie odcinka udostępnię Ci również moją prezentację, gdzie w formie graficznej zobaczysz jak wygląda komenda cache i gdzie kliknąć w tą wersję tekstową.

    Weryfikacja czasu ładowania się strony

    Idąc dalej, jeżeli już masz w nawyku weryfikację site, weryfikację cache’a, na bieżąco śledzisz czy coś się zmienia, poprawiasz ewentualne błędy, kolejnym etapem równoległym bądź następującym po jest weryfikacja czasu ładowania się strony. I to również zrób dla strony głównej, najważniejszych kategorii, losowych produktów, filtrów i wszelkiego innego typu podstron. Wybierz reprezentację, na podstawie której będziesz badać czas ładowania się strony. I do tego przydadzą się dwa narzędzia. Jedno z nich to jest PageSpeed Insights,  natomiast tu jak w przypadku kiedy masz mniejszą stronę internetową, prawdopodobnie nie będzie zebranych wystarczających danych żeby pokazać Ci ostateczny wynik tego czasu ładowania. I GTmetrix. Myślę, że najbardziej polecam Ci GTmetrix’a, możesz tam zarejestrować bezpłatne konto i podczas wpisywania nazwy domeny zaznaczyć, że prosisz o weryfikację z serwera zlokalizowanego w Londynie. Dlaczego jest to ważne? Dlatego, że przy domyślnym serwerze, zlokalizowanym w Stanach Zjednoczonych, czas ładowania się strony w niektórych przypadkach przedłuża się nawet o jedną sekundę. A Twoi klienci prawdopodobnie są w Europie. Oczywiście, jeżeli prowadzisz działania SEO na Stany Zjednoczone, to wtedy weryfikuj co się dzieje w Stanach. Natomiast w większości sytuacji bardziej będzie Cię interesował serwer w Londynie i tą opcję masz dostępną tylko w bezpłatnym, ale zarejestrowanym koncie.

    Pamiętaj żeby nie uprawiać takiej sztuki dla sztuki. Nie sztuką jest (niezależnie już od czasu poświęconego na optymalizację) otrzymać wynik 100 na 100. Jeżeli poświęcisz na to kilkadziesiąt godzin a to nic nie zmieni w Twoim rankingu, to nie jest to działanie oparte o zasadę Pareta i minimalizację czasu pracy oraz maksymalizację efektu. To, co Ci doradzam, to podejście zdroworozsądkowe – 1-2-3. Czy Twoja strona internetowa się załadowała? Mniej więcej 2-3 sekundy to jest już w miarę dobry wynik.

    Bardzo często też duże e-commerce’y mają nawet 4 sekundy czasu ładowania strony i nadal nie cierpią na tym w rankingu. W związku z czym, nie popadaj po prostu w przesadę i zoptymalizuj czas ładowania się strony w taki sposób, by możliwie szybko wyświetlała się ona użytkownikowi, żeby nie budowała frustracji, ale niekoniecznie uzyskiwała ten wynik 100 na 100.

    Weryfikacja wyświetlania na mobile

    Kiedy zbadasz już czas ładowania się strony nie możesz zapomnieć również o teście optymalizacji mobilnej. Jak zweryfikować czy Twoja strona internetowa jest dobrze wyświetlana na urządzeniach mobilnych? Specjalnie dla Ciebie i dla każdego z użytkowników wyszukiwarki, Google przygotował test optymalizacji mobilnej. Adres do niego znajdziesz również na stronie podcastu i powinieneś bądź powinnaś sprawdzić stronę główną, najważniejsze kategorie, losowe produkty, filtry, inne podstrony. Czy nie masz żadnych problemów związanych z wyświetlaniem strony na urządzeniu mobilnym.

    To prawidłowe wyświetlanie na mobile, to jest takie Twoje must have. Dlaczego? Bo będzie Cię dotyczyć Mobile First Index, czyli Twoją stronę będzie indeksować przede wszystkim robot mobilny i na tej podstawie tworzyć z ranking.

    Z drugiej strony, w chwili obecnej w niektórych branżach nawet 80% sprzedaży odbywa się przez urządzenie mobilne (i to mówię o telefonie, a nie o tablecie), w związku z czym – jeżeli występują jakiekolwiek problemy z wyświetlaniem Twojej strony, Twojego sklepu internetowego na telefonie, to odcinasz sobie możliwość sprzedaży z tego urządzenia. Jeśli masz już za sobą cykliczną weryfikację site, cykliczną weryfikację cache’a, cykliczną weryfikację czasu ładowania się strony i optymalizacji mobilnej, i jako cykliczne nie będę narzucać Ci okresu. Jeżeli masz trochę więcej czasu, duży site, rób to co tydzień, jeżeli masz site odrobinę mniejszy, prowadzisz stronę usługową, wystarczy zweryfikować to raz w miesiącu, nie ma tej złotej reguły.

    Praca z Google Search Console – sekcja Stan

    Jeżeli każdy z tych kroków jest już za Tobą, zacznij pracować z Google Search Console. Jeżeli myślisz o rankingu wyników wyszukiwania i jakimkolwiek ruchu z wyszukiwarki, Search Console powinno być Twoim podstawowym narzędziem pracy. I w Search Console w sekcji “stan” znajdziesz informację o tym, czy pojawiają się jakiekolwiek błędy indeksacji, czy pojawiają się jakieś ostrzeżenia i ile jest prawidłowo zindeksowanych adresów.

    To co warto żeby zweryfikował bądź zweryfikowała, to liczba podstron, które są prawidłowe. I co się w nich dzieje? Liczba ewentualnych błędów i sprawdzenie w jaki sposób możesz je naprawić, czy ma to sens, a także liczba tych ostrzeżeń, które pokażą Ci na przykład pozorne błędy 404, ewentualne przekierowania, nieprawidłowości związane ze skanowaniem danego adresu, itd.

    Nie musisz oczywiście weryfikować strona po stronie, dlatego że nie jest to optymalne czasowo działanie, natomiast rób to wyrywkowo. I zadawaj pytanie: czy na pewno tak powinno to wyglądać? Dzięki temu, przy takiej cyklicznej, wyrywkowej analizie będziesz w stanie ocenić czy przypadkiem w Twoim serwisie, tak już obok weryfikacji site’a, nie dzieje się nic niepokojącego. Kiedy przejdziesz przez Search Console i dokładną weryfikację sekcji “stan”, będziesz w stanie przeanalizować to, co się dzieje w Twoim serwisie, na tej podstawie w którymś momencie może się okazać, że to jest za mało.

    Jeżeli site będzie nieustannie rosnąć, Twoje stany magazynowe będą się zmieniać, będzie coraz więcej produktów, (bardziej mówię o rodzajach produktów oczywiście, niż o ilości konkretnego produktu), jeżeli będą pojawiały się nowe kategorie, to może się okazać, że site urośnie do tak już wysokich liczb, że wyrywkowa weryfikacja Search Console nie będzie efektywna. Wtedy skorzystaj z narzędzia, które jest nazywane Crawlerem, które tak jak robot wyszukiwarki, chodzi po Twojej stronie i dostarczy Ci raport o ewentualnych błędach, lub po prostu ustawieniach poszczególnych podstron. Szczególnie polecam Ci Screaming Froga, ale to dlatego, że ja po prostu lubię pracować w Excelu. Ciekawy jest również Sitebulb, który nie dosyć że wychwyci Ci błędy, to jeszcze przedstawi w formie graficznej całą strukturę Twojej strony i pozwoli lepiej zrozumieć jak poruszają się po niej roboty. Mamy też narzędzie online’owe DeepCrawl, równiez z niego korzystamy, jedno z tych trzech – linki zostawię Ci oczywiście na stronie podcastu. Natomiast miej świadomośc, że crawlery to jest dopiero kolejny krok, najpierw uporaj się z tymi poprzednimi, o których wspominałam, a dopiero zacznij pracować z crawlerami.

    Praca nad pozycjami i widocznością metodą małych kroków

    No dobrze, już wiesz jak możesz weryfikować to w jaki sposób robot wyszukiwarki widzi Twoją stronę, dowiedzmy się jak teraz pracować nad pozycjami i widocznością. Przydadzą się Tobie trzy rodzaje narzędzi. Pierwszy z nich to Google Search Console, to jest must have pracy w SEO. Następnie, narzędzie do monitoringu widoczności, np. Senuto, SEMstorm, czy ewentualnie Ahrefs. Do tego wszelkie narzędzia do monitoringu pozycji słów kluczowych, natomiast tu bym powiedziała, że są one raczej opcjonalne. Niestety, weryfikacja 10, 20 pozycji nie sprawi, że będziesz miał bądź miała pełne dane odnośnie Twojej widoczności organicznej. Dlatego potrzebujesz narzędzi, które monitorują miliony słów kluczowych, do tego potrzebujesz również Search Console, aby weryfikować to, jak zmieniają Twoje wyświetlania, kliknięcia, średnia pozycja czy CTR. I skoro jesteśmy przy CTR, to kilka słów wyjaśnienia.

    CTR to współczynnik klikalności, czyli liczba kliknięć versus liczba wyświetleń w wartości procentowej. To co musisz wiedzieć to to, że większość ruchu w wynikach wyszukiwania zgarniają elementy graficzne, które w nich występują, zgarniają często reklamy, a jeśli chodzi o wyniki organiczne czyli te bezpłatne, o których wspominał Ci Damian w jednym z poprzednich odcinków, to właściwie liczy się przede wszystkim top3.

    Pierwsza pozycja według danych z Advance Web Ranking na kwiecień 2020 to jest ponad 30% kliknięć, zarówno na desktopie jak i na mobile’u, druga pozycja to jest niespełna 20, a trzecia – trochę ponad 10. W miarę jak Twoja strona występuje na dalszych pozycjach, tym niższe są szanse, że pozycja dla danego słowa kluczowego wygeneruje ruch organiczny, a docelowo sprzedaż. Natomiast tutaj też mówiliśmy w poprzednim odcinku o trendach – czasami zdarza się, że trend na dany produkt jest tak silny, że również te pozycje w top20 czy top30, czyli na 2,3 stronie wyników wyszukiwania może Ci wygenerować sprzedaż, ale to są zazwyczaj sytuacje bardzo wyjątkowe – tak jak zakup maseczki jednorazowej w czasach pandemii.

    Jak pracować nad pozycjami i widocznością tak, by generowały one jak największy ruch, a przez to sprzedaż w Twoim sklepie internetowym czy też na Twojej stronie internetowej? Przede wszystkim cyklicznie analizuj słowa kluczowa, na początek w Search Console, te które znajdują się na pozycjach drugiej, trzeciej.

    Czy możesz zrobić coś, co sprawi że będą znajdowały się na pozycji pierwszej? Mówię tu o jakichś drobnych poprawkach optymalizacyjnych.

    Tuż za top3 – to miejsce za podium boli najbardziej. Gdy jesteś na czwartej, piątej, szóstej pozycji – czy drobnymi zmianami na stronie możesz sprawić by znaleźć się trochę wyżej?

    I pozycje poza top10, to boli chyba jeszcze bardziej niż być poza podium, bo tam prawdopodobnie nikt nie zajrzy i perspektywicznie, poza top20 frazy zwłaszcza te o wysokiej liczbie wyświetleń.

    Dlaczego jest ważna tego typu praca? Często drobnymi poprawkami, takimi jak dodanie słowa kluczowego w nagłówku, dodanie treści, optymalizacją tej treści, możesz zbudować wyższą pozycję. Jeżeli na bieżąco analizujesz swoją widoczność organiczną, wiesz które frazy są dla Ciebie trudniejsze i dla których nie osiągasz satysfakcjonujących wyników, to taka bieżąca reakcja może sprawić, że w bardzo szybki i prosty sposób wygenerujesz dodatkowy ruch dla danej frazy, minimalizując w zasadzie swoje zaangażowanie, czyli nie poświęcając wielkich zasobów, wprowadzasz słowo kluczowe na tą stronę. Jakby, to nie jest wielka praca, a ostatecznie przynosi Ci ona bardzo duży efekt w myśl zasady Pareta.

    W jaki sposób ja pracuję z takimi słowami kluczowymi? Używam do tego właśnie przede wszystkim Search Console. Najbardziej lubię, mówiąc szczerze wyeksportować sobie dane z Search Console do Excela i zawężać okresami, czyli – w krótkim okresie, od 7 do 31 dni wybieram sobie frazy, które są na pozycji  większej niż 10 i segreguję je po liczbie wyświetleń. Sprawdzam, dla których fraz z drobnymi poprawkami mogę pojawić się wyżej. Co to są za drobne poprawki, omówimy sobie za chwileczkę. Jeśli robię to w Excelu, to mogę zawężać również przedziałami, czyli pozycję od 3 do 10 – segregacja po wyświetleniach. Warto również sprawdzać słowa kluczowe, które są na wysokich pozycjach, a generują bardzo niewielką liczbę kliknięć również za pomocą właśnie takiej segregacji w Search Console, sortowania, czy też – tutaj najbardziej polecam oczywiście eksport do Excela i już pracę nad tabelą w Excelu.

    Zanim jednak przejdziemy do tego jak pracować nad CTR, to chciałam wrócić do tego wątku drobnych poprawek optymalizacyjnych, na które powołuję się w tym podcaście. Oczywiście, tutaj będziemy poruszać się na pewnym poziomie uogólnień. Na przykład, będzie to weryfikacja contentu content edytorem SEMstorma, tudzież SurferSEO i sprawdzenie czy dane słowo kluczowe faktycznie występuje w treści wystarczającą liczbę razy, weryfikacja jak dla danego słowa kluczowego wygląda optymalizacja stron konkurencji w Surferze i postanowienie: “dobrze, to słowo kluczowe muszę dodać na przykład do nagłówka, tudzież do paragrafu”.

    Czasami jest to dodanie ALT’a zdjęć. Być może w wyszukiwarce grafiki zajmujesz pozycję tuż za pierwszą stronę wyników wyszukiwania. Co mam tutaj na myśli – mówię o stronie wyników wyszukiwania gdzie na górze pojawiają się Wam grafiki Google. I tych grafik Google jest kilka i możecie być tuż za tymi, które wyświetlają się na pierwszej stronie. Wtedy być może optymalizacja ALT’u grafiki może Wam generować ruch właśnie ze zdjęcia. Do tego bardzo częstym problemem jest kanibalizacja podstron w wynikach wyszukiwania, czyli dla danego słowa kluczowego masz zoptymalizowane 2 podstrony, one występują na pozycjach dalszych ale blisko siebie i może to powodować to, że nie masz możliwości zdobycia wyższej pozycji ponieważ te dwie podstrony ze sobą rywalizują. Tutaj mała uwaga: zdarzają się sytuacje, przykładowo dla klienta serwującego rozwiązania oparte o Amazon Web Services. Mieliśmy sytuację, w której Amazon zajął 10 na 10 wyników wyszukiwania. I tak, to się zdarza. Zdarza się że jedna strona internetowa zajmuje dwie pozycje w top3. Natomiast mniej jest tego typu sytuacji a zdecydowanie więcej jest sytuacji w których 2 podstrony się kanibalizują. Tutaj trzeba świadomie podejmować decyzję i też weryfikować czy przypadkiem problemy z dalszą pozycją nie wynikają z tego, że podobne strony internetowe z jednego serwisu ze sobą właśnie rywalizują. Do tego czasami sprawdza się praca nad hierarchią nagłówków, czyli weryfikacja jak wyglądają nagłówki w kodzie HTML i ich optymalizacja pod kątem zawartości słów kluczowych, weryfikacja czy następują one względnie po sobie, czy nie mamy tam jakiegoś małego zamieszania, upychania w nagłówkach wszystkich sekcji na stronie, itd. To są takie drobne rzeczy, których zmiana często nie wymaga bardzo dużo czasu, a ostatecznie mogą doprowadzić do znacznego zwiększenia. Tylko jedna mała uwaga, działania SEO to tak naprawdę testowanie, oczywiście przemyślane, które nie zaszkodzi witrynie, natomiast nie ma innej drogi niż znalezienie swoich małych prostych metod na optymalizację swojej strony internetowej, dzięki której możliwe będzie stopniowe zdobywanie coraz wyższych pozycji. Ta ciągła praca jest konieczna bo tą ciągłą pracę wykonują również konkurenci. I nie obędzie się tutaj bez testów, weryfikacji, próbowania nowych rzeczy i nieustannej, drobnej optymalizacji najważniejszych dla nas podstron.

    Praca nad CTR

    Mam nadzieję, że ten temat jest dla Ciebie jasny i tym samym przejdę teraz do obiecanej sekcji dotyczącej CTR, czyli współczynnika klikalności. Jak możemy pracować nad skutecznością w Google Search Console w zakresie właśnie klikalności wyników wyszukiwania. Okazuje się, że pomimo uśrednionych statystyk CTR, nie zawsze kluczową jest pozycja. Niejednokrotnie zdarza się, że wynik wyszukiwania na pozycji czwartej zgarnia więcej kliknięć niż przykładowo pozycja trzecia, dlatego że stosuje dodatkowe metody optymalizacji wyników wyszukiwania. Można to zrobić za pomocą trzech elementów. Pierwszy z nich to praca nad meta-tagiem “title” i “description”. O ile w przypadku wszelkich zmian w “title” trzeba bardzo mocno uważać, ponieważ “title” jest czynnikiem rankingowym i zawarcie słów kluczowych w tym meta-tagu jest bardzo ważne i wszelkie zmiany muszą być przemyślane, w przypadku “description” mamy już większą dowolność. Sprowadza się to do tego, aby przygotować sprzedażowe meta-tagi “title” i “description” i połączyć nie tylko względem SEO, ale również użytecznościowo. Czyli zachęcić użytkownika do przejścia na stronę właśnie w opisie w wyniku wyszukiwania. Kolejną metodą jest zastosowanie emoji. To sprawdzi się nie tylko w branżach około lifestylowych, ale również tych związanych z elektroniką i wielu, wielu innych. Jest to element, który przykuwa wzrok i wyróżnia wyniki wyszukiwania na tle konkurencji. Zarówno emoji jak i praca z meta-tagami to są rzeczy, które wymagają naprawdę niewiele czasu, a przynoszą ciekawe efekty (i o tym zaraz Ci opowiem). Kolejny element to są dane strukturalne. Tutaj w zależności od skryptu może to być bardzo proste bo wystarczy włączyć plugin, a może okazać się że wymaga sporej pracy z kodem, więc musisz tutaj wyważyć ich zastosowanie. Natomiast ja uważam że absolutne minimum to breadcrumb list i product w przypadku sklepu internetowego. Breadcrumb list to nic innego jak wskazanie struktury kategorii w taki sposób aby była ona wyświetlona w wynikach wyszukiwania. Dzięki temu już od początku przykuwa to wzrok użytkownika, porządkuje w stronę internetową w jego oczach. Natomiast jeśli chodzi o product to jest to element, który pozwoli Wam wyświetlić w wynikach wyszukiwania zarówno średnią opinie (czyli te gwiazdki opinii, widoczne w SERP), jak i cenę, dostępność i wiele, wiele innych. Dlaczego warto tym się zająć? Zarówno w prezentacji z Online Marketing Day, którą zamieszczę w materiałach, jak i z Kolbuszowej 2.0 z zeszłego roku (również zamieszczę ją na foxstrategy/podcast) znajdziecie mój test z października 2019 roku, gdzie na swoim blogu kulinarnym ms- fox.pl przeprowadziłam test wpływu danych strukturalnych na CTR.

    Testy CTR – wyniki

    W jednym dniu (wymagało to oczywiście sporo pracy) wdrożyłam w każdym przepisie dodanym na blogu dane strukturalne resize, czyli te dzięki którym w wynikach wyszukiwania może wyświetlić się zdjęcie potrawy, a także w miarę możliwości wdrożyłam takie kulinarne emoji. Okazuje się, że kiedy na potrzeby Online Marketing Day zweryfikowałam wyniki tego testu, były ona dla mnie jeszcze bardziej zaskakujące niż podczas Kolbuszowej 2.0. Już podczas Kolbuszowej, czyli w październiku 2019 w ciągu dwóch tygodni od zmiany widziałam efekty. Natomiast porównując cały ten okres czasu, patrząc jak zmienił się średni CTR poszczególnych podstron, które mają już permanentnie wdrożone zdjęcie w wynikach wyszukiwania, okazuje się, że dla pozycji średniej 3,2 CTR zmienił się np. z 29,2% do  52,3%, czyli ponad 20% więcej osób klika w wynik wyszukiwania. To generalnie się nie zdarza żeby powyżej pozycji trzeciej, lub nawet na pozycji 3 zgarnąć 50% ruchu, a taka jest proporcja kliknięć do wyświetleń tego słowa kluczowego i tej podstrony dla tego słowa kluczowego. Więcej o tym teście znajdziecie oczywiście w prezentacji, natomiast wszelkie dane pokazują, że wdrożenie dodatkowych elementów w wynikach wyszukiwania wpłynie pozytywnie na potencjał ruchu uzyskanego z danej pozycji. Nie zawsze będą to tak spektakularne wyniki i dodatkowe 20-30%, natomiast czasami wzrost o kilka procent to już jest naprawdę dużo przy większej skali.

    Jak wyznaczyć podstrony do pracy? Zweryfikuj średni CTR dla całego serwisu w Search Console i sprawdź, które podstrony o wysokiej liczbie wyświetleń mają o wiele niższy CTR niż średnia. To są, na pierwszy rzut oka już podstrony, którymi warto się zainteresować i wyłonić je do dalszej pracy.

    Strategia SEO – co dalej?

    Dobrze, wiesz już jak indeksuje Twoją stronę Google i sprawdzasz to cyklicznie, wiesz już jak wyłonić frazy do pracy w wynikach wyszukiwania, jak wyłonić w strony o najniższym CTR i jak z nimi pracować. Co dalej? Podstawą dalszej pracy nad SEO jest stała edukacja. SEO to jest branża bardzo dynamiczna i to, co działało rok, 2, 3, 5 lat temu może nie działać lub po prostu nie ma takiego znaczenia. W związku z czym, podstawą wszelkich Twoich działań powinna być edukacja, właśnie po to by móc w przyszłości oszczędzać czas poświęcony na działania. Jak wyznaczyć dalsze kroki? Przede wszystkim – planuj, wdrażaj i weryfikuj swoją strategię i wdrażaj możliwie szybko te działania optymalizacyjne, które nie zajmą Ci bardzo dużo czasu. Będą one dotyczyć zarówno on site jak i off site, bo nie zapominajmy, że bardzo ważną częścią działań SEO jest linkbuilding, ale to już temat na osobny podcast. Następnie weryfikuj efekty wdrożonych przez Ciebie zmian. Gdyby okazało się, że zmiana nie przyniosła efektu to najpierw zweryfikuj czy na pewno wszystko zostało wdrożone poprawnie, a jeśli tak – to usuń ze strategii tego typu działania. Aktualizuj tą strategię w myśl  zasady Pareta, minimalizując swoje zaangażowanie i maksymalizując efekty, wyciągaj wnioski, testuj i podejmuj decyzje zarówno o dodaniu pewnych działań do strategii jak i o usunięciu, jeśli nie są efektywne.

    A co z użytecznością strony?

    Do tego, ponad SEO zainteresuj się tym, co się dzieje aktualnie w Twoim serwisie pod kątem użytecznościowym. Nie jestem specjalistą UX, o tym więcej opowiadał Ci Kamil Demidowski, natomiast z mojej perspektywy SEO-wca i przedsiębiorcy, bardzo ważna jest weryfikacja co się dzieje z użytkownikiem, kiedy trafia na Twoją stronę z wyników wyszukiwania i nic na niej nie robi. Albo z niej wychodzi. Sprawdź, które podstrony mają wysoki współczynnik odrzuceń w Google Analytics, sprawdź i zaplanuj co się powinno wydarzyć gdy użytkownik trafia do niedostępnego produktu. Bardzo często zmieniają się stany magazynowe, ja to oczywiście doskonale rozumiem. Natomiast sytuacja, w której użytkownik wchodzi do kategorii nie widzi żadnego dostępnego produktu budzi tylko frustrację. W związku z czym – czy dajesz informację o tym, kiedy dostępny będzie produkt interesujący użytkownika, czy dajesz informację o tym jakie są alternatywy do danego produktu, może to być wpis blogowy czy dedykowana sekcja na stronie produktu. Co więcej, opracuj strategię zarządzania produktami wycofanymi ze sprzedaży. Jedną z najgorszych rzeczy, która może się zdarzyć to to, że przychodzi do Ciebie klient z wyników wyszukiwania i trafia na błąd 404 lub stale nieobecny produkt w wynikach wyszukiwania i wychodzi ze strony, nie dokonuje zakupów, bo nie pokazujesz żadnej alternatywy. Jeżeli z jakichś względów dany produkt musi zostać wycofany, to wskaż na blogu alternatywę i przekieruj ten produkt na wpis blogowy. “Kliencie, z tego i tego względu, niestety nie mamy już tego produktu w ofercie, prawdopodobnie już nie wróci, natomiast mamy dla Ciebie szereg rozwiązań, które będą nawet lepsze niż ten produkt”. Masz szansę jeszcze wygenerować sprzedaż z niedostępnego produktu dzięki temu. Jest to taka strategia również w myśl zasady Pareto, czyli wykorzystujemy to co mamy, minimalizujemy zaangażowanie i maksymalizujemy efekty.

    No cóż, przebrnęliśmy przez temat indeksacji i pracy nad rankingiem wyszukiwania. Na dziś to tyle. Zachęcam Was (jeżeli jeszcze tego nie zrobiliście) do posłuchania odcinka poprzedniego, bardziej biznesowego, wskazującego również w analizę konkurencji słów kluczowych i trendów. Słyszymy się w kolejnych podcastach. Gdybyście mieli jakiekolwiek pytania, śmiało się skontaktujcie czy przez moje social media czy przez naszą stronę internetową foxstrategy.pl. Do usłyszenia, miłego dnia!

    ZOSTAW ODPOWIEDŹ

    Proszę wpisać swój komentarz!
    Proszę podać swoje imię tutaj

    Powiązane odcinki

    Zapisz się do newslettera

    .