Kilkanaście dni temu na oficjalnym blogu Google pojawiła się informacja o wprowadzeniu dwóch nowych typów atrybutów, które mają służyć „lepszej identyfikacji” charakteru linków, do których zostaną dodane. Oprócz dobrze znanego od 15 lat „nofollow” Google dało do dyspozycji właścicielom witryn i webmasterom oznaczenia: rel="sponsored" oraz rel="ugc" (źródło: https://webmasters.googleblog.com/2019/09/evolving-nofollow-new-ways-to-identify.html).


Oznaczenie linków sponsorowanych - rel=”sponsored”

Pierwszy z nowych atrybutów, czyli rel=”sponsored” ma być dedykowany linkom pojawiającym się w materiałach reklamowych (takich jak np. artykuły).
Możemy interpretować to jako „zachętę” do oznaczania linków, które zostały po prostu opłacone, bądź pojawiły się np. w ramach wymiany, sponsoringu czy reklamy.

User generated content czyli rel=”ugc”

Drugi atrybut rel=”ugc” ma być użyty w odniesieniu do linków umieszczanych w treściach i wypowiedziach tworzonych przez użytkowników i publikowanych np. w postach czy komentarzach na forach internetowych. Według deklaracji Google oznaczanie odnośników poprzez ten atrybut ma umożliwić ich odpowiednią klasyfikację i niejako zniechęcić do tworzenia spamerskich treści i masowego umieszczania linków.


Co oznacza to praktyce ?

W swoim komunikacie, pracownicy Google wskazali, że zarówno dotychczasowe atrybuty linków (czyli follow i nofollow), jak i te nowe mają być wskazówką w interpretacji i ocenie „mocy” odnośników oraz stanowić czynnik rankingowy.
Możemy domniemywać, że użycie oznaczenia „sponsored” będzie jednoznaczne ze wskazaniem, że dany link jest efektem działań reklamowych oraz co ważne, że dana witryna udostępnia odnośniki za opłatą.

Pytanie jak oceniane będą linki z parametrem UGC? Być może będą one zyskiwały na znaczeniu, jeśli będą pojawiały się w miejscach, gdzie pojawiają się realni i zaangażowani użytkownicy (np. pasjonaci danej tematyki), a wypowiedzi są mocno moderowane i dalekie od spamerskiego charakteru. Może też okazać się, że wprowadzenie atrybutów rel=„ugc” w miejscach, które dotychczas nie posiadały żadnego oznaczenia (a więc domyślnie linki otrzymywały parametr follow) wpłynie na zmianę rankowania tych odnośników (i ich „osłabienie”).

Jeszcze inną konsekwencją ogłoszonych przez Google zmian może być zmiana strategii dotyczącej budowania profilu linków i próba pozyskiwania nowych typów odnośników w celu zróżnicowania puli linków bądź próby jej „unaturalnienia”.

Informacje przekazane przez Google są jak zwykle dość lakoniczne i najprawdopodobniej czas pokaże, czy zmiany przełożą się w jakikolwiek zauważalny sposób na wyniki wyszukiwania. Im więcej jednak stawiamy sobie pytań tym więcej pojawia się niewiadomych i domniemanych scenariuszy.

W sieci pojawiły się już pierwsze komentarze i wpisy blogowe dotyczące nowych atrybutów – plejada tytułów pokazuje, że zdania jak zwykle są dość podzielone. Od skrajnych określających komunikat Google jako breaking news po typowe „polskie” podejście na zasadzie „pożyjemy, zobaczymy” oraz „róbmy swoje”.


Co robić i jak żyć 😉?

W naszej branży często spotykamy się z paradoksem - mamy „dwóch seowców a trzy opinie” oraz z tym, że najlepszą odpowiedzią wszelkie pytania jest stwierdzenie „to zależy” 😉 Myślę jednak, że wiele osób zastanawia się nad tym czy zmiany będą wymagały od SEOwców zmodyfikowania podejścia do budowania profilu pozyskiwania odnośników czy wpływania na ranking poprzez używanie konkretnych atrybutów.

- Katarzyna Baranowska

W związku z tym zaprosiliśmy do dyskusji i do wyrażenia swojej opinii na ten temat ekspertów SEO, osoby odpowiedzialne za strategię linkbuildingu i specjalistów od content marketingu. Wszystkie wypowiedzi z przyjemnością publikujemy poniżej – zachęcamy również do dyskusji w komentarzach 😉

Nie masz czasu przeczytać całości publikacji? Zastanów się jeszcze raz lub przynajmniej zapisz link na później - czeka tu na Ciebie spora dawka wiedzy wprost od Liderów branży SEO/SEM.

Jeśli jednak nadal wolisz wersję skróconą, podsumowanie od Eweliny znajdziesz na samym końcu publikacji.


Dobry moment na komentarz, akurat siedzimy na SEO Rejsie i wątek nowych atrybutów linków jest tu oczywiście żywo fermentowany.
Wnioski?
Jesteśmy zgodni, że nowe atrybuty posłużą za pożywkę dla uczenia maszynowego algorytmów Googla. Oczywistym jest, że większość webmasterów nie zwróci uwagi na nowe znaczniki, ale mając nawet niewielką próbkę linków oznaczonych nowymi atrybutami, algorytm będzie szukać wzorców, według których oceni (czyt. "usunie z grafu linków") grupy podobnych odnośników.
Z tego wprost wynika też zapowiadana przez Googlersów zmiana podejścia algorytmu do samego "nofollow". Dotąd powtarzali przecież, że linki z tym atrybutem nie są uwzględniane w grafie. Dziś branżę ekscytuje zapowiadana zmiana sposobu oceny - z twardej dyrektywy na "wskazówkę". Czy to oznacza, że linki z forów znów będą "kopać"?
Moim zdaniem, nie. Dedukuję, że stosowany od lat w dużej części forów "nofollow" doskonale uczy algorytm, że linki z podobnych źródeł nie powinny być uwzględniane w układaniu rankingów.
Może więc linki z Wikipedii zaczną kopać? Znów pozostaję sceptyczny 😉 Powszechnie znany fakt możliwości edycji treści w Wiki przez kogokolwiek niesie ryzyko manipulacji, którego na miejscu Googlersów starałbym się unikać.

Pozostaje pytanie, czy warto poprawiać/rozszerzać atrybuty linków na własnych stronach?

Uważam, że nowe atrybuty będą działać identycznie jak stare "nofollow". Linki w materiałach sponsorowanych i te dodawane przez użytkowników dotąd miały być (zgodnie z wytycznymi Google) opisywane przez "nofollow". Zróżnicowanie dostępnych atrybutów posłuży do efektywniejszego wykrywania i klasyfikowania tego typu linków w pozostałych serwisach (które tych znaczników nie zastosują), nie widzę natomiast powodu, dla którego link atrybuowany jako "sponsored" czy "ugc" miał trafić do samego grafu linków.

Podsumowując - nie widzę realnej potrzeby wdrażania nowych znaczników. O ile dziś prawidłowo stosujesz "nofollowy" (lub też świadomie je ignorujesz), zamiana na nowe atrybuty prawdopodobnie nie wpłynie w żaden sposób na ocenę Twojego serwisu. Nowe atrybuty nie dają dziś właścicielom witryn żadnych korzyści, posłużą jedynie do trenowania algorytmów celem efektywniejszego wykrywania manipulacji.

Zamiast więc tańczyć, jak nam zagrają, sam wolę spędzić czas na innej imprezie 😉

Sławomir Borowy

SEO/SEM Consultant, https://www.asante.pro/


Moje zdanie być może niezbyt popularne a i nieco kontrowersyjne jest takie. Chodzi głównie o "rozwodnienie" opinii jakie ludzie zajmujący się SEO mają na temat linków a przede wszystkim linków nofollow.

Kiedyś mieliśmy rel=nofollow teraz rel=nofollow rel=ugc rel=sponsored - na tej zasadzie można właściwie tworzyć dowolne atrybuty i poddawać je testom.

Najważniejsze jest, że Google ogłosiło traktowanie nofollow jako sugestię (podobnie zresztą jest w przypadku tagu canonical), a nie dyrektywę. To ogromna zmiana, a atrybuty ugc i sponsored tylko mają tę zmianę uczynić nieco mniej widoczną.

W związku z tym samo oflagowanie linka nofollow nie będzie znaczyło, że link ten partycypuje w strategii SEO lub nie.

Koniec końców odnieść można wrażenie, że po 15 latach od wprowadzenia atrybutu nofollow nastąpił kryzys jeśli chodzi o linkowanie naturalne. Duże wydawnictwa domyślnie używają atrybutu nofollow i tym samym zakrzywiają to jak naturalne linkowanie wyglądałoby gdyby tego tagu nie prowadzono.
Wikipedia, która dziś jest silnie moderowana, również nie rezygnuje z atrybutu nofollow (więc nie można założyć że nofollow to obrona przed spamem).

Z drugiej strony spamowanie komentarzy w blogach nie osłabło, a wręcz można odnieść wrażenie że przybrało na sile, mimo 15 lat istnienia tagu nofollow. Kto ma np. stronę na WP ten wie.

Nofollow miało być remedium które chroni algorytm Google i użytkowników tej wyszukiwarki przed nadmierną manipulacją i niskiej jakości wynikami, chyba wymknęło się jednak spod kontroli.

Łukasz Żelezny

SEO Consultant, https://zelezny.uk


Google wprowadzając parametry UGC i SPONSORED samo przyznało, że nad tego typu rozwiązaniem pracowało przez kilka (naście?) ostatnich miesięcy. Zauważcie, ile ludzi tak naprawdę śledzi działania Google pod kątem SEO – garstka w stosunku do liczby witryn, które Google analizuje. To z kolei oznacza, że być może, 90% webmasterów nie wie i nigdy się nie dowie o takich parametrach jak nf, ugc czy sponsored. Google również przyznało, że webmasterzy nie muszą wstecznie uzupełniać tych parametrów.

Skoro jednak Google wprowadziło to parametry to oznacza, że prosi branżę SEO o samopodpierdolkę – wy nam podacie, jak na tacy, jak interpretować wasze linki, a my dzięki temu nie będziemy musieli tego analizować. No i technologicznie nie będziemy musieli inwestować w nie wiadomo jakie programy do analizy tych linków. Ot, po prostu, podacie linki na tacy. To przypomina mi wdrożenie Disavow Tool, za pomocą którego zrzekaliśmy się linków. Oczywiście w przypadku DT, niektóre „ruchy seo” były uzasadnione. Nie mniej jednak patrząc przez pryzmat narzędzia to disavow tool oraz markowanie linków to przecież niemalże to samo.

Rozmyślając też o markowaniu linków parametrem NOFOLLOW Google mówi, że będzie to jakiś tam mniejszy lub większy „hint” – czyli, że jednak potwierdza, iż analizuje to co znajduje się za linkiem nofollow od dawna – pewnie niemalże od początku. Skoro PageRank jest obliczany logarytmicznie na podstawie jakichś parametrów i między innymi linków, to logarytm od czegoś daje coś, ale zerem już być nie może – więc nofollow działa? 😉

Skoro mamy sami się podkładać linkami typu ugc i sponsored to, moim zdaniem, trzeba to na początku „olać” i zobaczyć jak Google podejdzie do analiz, kiedy nic nie będzie robione.

I jak to w SEO – podejdźmy do tego na spokojnie. Pierwsza większa akcja czyszczenia PBNów będzie odpowiedzią co dalej z platformami blogowymi 🙂

Reasumując – czekamy i patrzymy co dalej.

Paweł Gontarek

https://www.zgred.pl/


Tak się składa, że widziałem oficjalnego maila od Gary Illyes'a wysłanego na 2 tygodnie przed publicznym ogłoszeniem zmian w dokumentacji Google. W mailu tym jest konkretne wytłumaczenie, po co to wprowadzili oraz co się będzie działo w najbliższych miesiącach. Zmiana w dyrektywie rel="nofollow" w perspektywie najbliższych miesięcy będzie mieć ciekawy wpływ na sposób przetwarzania link buildingu i finalne efekty.

Pomijając efekt rynkowy, który pojawi się wśród wydawców, którzy sprzedają linki w skali makro, zmiany będą miały bezpośredni wpływ na sposób przetwarzania grafu linków. Co najważniejszego uległo/ulegnie zmianie?

Najważniejsze to, że linki opatrzone parametrem nofollow przestają być DYREKTYWĄ jak dotychczas a stają się SUGESTIĄ. Jest to podobny mechanizm. jak w przypadku nagłówków canonical (sugestia) i przekierowaniach 301 (jednoznaczne wskazanie).

Cytując fragment maila: "Decreasing the weight to "hint" was necessary because we've reached a state where nofollow was doing more harm than good even for good sites". Całość maila mocno sugeruje, że linki klasy nofollow mogą (ale nie muszą) pojawić się w grafie linków i przekazywać page rank (oraz link juice) - czego do tej pory nie robiły.

Moim zdaniem jest to bardzo dobra nowina. W temacie pojawiają się również nowe dyrektywy rel="ugc" oraz rel="sponsored". W mailu znajduje się jasne wyjaśnienie co to jest/co to będzie. Cytując fragment maila: "Both will be used mostly for large scale training if they get resonable adoption, and otherwise they (already) act as nofollow...". Jest to jasna informacja że parametry te służą do nauki nowych modeli machine learning w Google - tak samo jak np. disavow file. Całość maila okrszaona jest jasną informacją: "... however we do give a 6 months of incubation period for using nofollow links for discovery". Czas na wnioski będzie w marcu 2020.

Robert Niechciał

Ekspert SEO, https://niechcial.io


Zacznę od tego, że prędzej czy później musiał nadejść czas, w którym Google zmieni sposób traktowania linków opatrzonych atrybutem "nofollow". Jak się okazało w ostatnim czasie, zmiana ta dotyczy traktowania tego atrybutu jedynie jako wskazówkę, a nie całkowitą blokadę przed zliczaniem i to moim zdaniem jest znacznie ważniejsze, niż sam fakt wprowadzenia dodatkowych atrybutów doprecyzowujących przeznaczenie linka.

Po ostrych akcjach sprzed wielu lat, kiedy to Google wypuściło pierwszą aktualizację Pingwin i w podobnym czasie zaczęły się również masowe ręczne kary za tzw. nienaturalne linki, coraz więcej osób zwyczajnie zaczęło się bać linkować na zewnątrz linkami dofollow. Na co dzień widzę publikacje w mniej lub bardziej popularnych serwisach (również branżowych), które stosują nofollow nawet do wskazania źródeł informacji czy też do stron, o których wspominają w treści artykułów w zupełnie naturalny sposób. Największe serwisy informacyjne czy tematyczne przyjęły politykę linkowania poza swoją domenę z nofollow, przez co nie trudno trafić na raporty bazujące na danych z zewnętrznych serwisów, a nawet wykorzystujące ich opracowania graficzne, ale z linkiem nofollow (w najlepszym przypadku), a nawet z niepodlinkowaną wzmianką. Ostatnio w naszym zespole przygotowaliśmy pełną treść artykułu dla jednej z gazet. Nawet w takim przypadku link w internetowej wersji był opatrzony atrybutem "nofollow", za którego zdjęcie musielibyśmy zapłacić tak jak za artykuł sponsorowany.

Google przez swoje wieloletnie działania samo sobie zaszkodziło. Tak mocno zafiksowało się na punkcie karania za nienaturalne linkowanie, że doprowadziło do znacznego zmniejszenia liczby w pełni naturalnych linków, które mogły przekazywać swoją moc i tym samym wpływać na pozycje. Moim zdaniem wprowadzona zmiana jest jak najbardziej uzasadniona z punktu widzenia wyszukiwarki, aczkolwiek również dla nas, seowców, otworzy ona większe możliwości - w końcu znacznie łatwiej jest o link nofollow, który od teraz będzie dawał nam pewne szanse na to, że zostanie on zliczony i pomoże w pozycjonowaniu.

Jeśli chodzi o 2 nowe atrybuty, to wydaje mi się, że przede wszystkim popularne platformy blogowe, serwisy społecznościowe i fora wprowadzą rel="ugc" w komentarzach, postach i stopkach. Jednak przeciętny właściciel strony raczej nie będzie wnikał w szczegóły na temat różnic w zastosowaniu nofollow, sponsored i ugc, więc nie zdziwię się, jeśli po kilku latach Google wycofa się z ich stosowania. Z drugiej strony zastanawiam się, czy sam fakt wprowadzania jakichkolwiek zmian w tych atrybutach nie jest sygnałem tego, że zbliżają się kolejne akcje karania za backlinki.

Marta Gryszko

https://www.lexy.com.pl/blog


Od blisko 15 lat atrybut nofollow wskazywał, że dany link kieruje do potencjalnie niezaufanego źródła – tym samym Google chciało zapobiegać przenoszeniu „link juice” do serwisów zewnętrznych. Była to rzekomo recepta na walkę ze spamem w komentarzach na forach czy blogach.

Obecnie otrzymaliśmy informację o tym, że linki nofollow były analizowane przez Google, dając tym samym, jak sami wspominają pewnego rodzaju „hint”. Google przekonuje, że nie ma konieczności zmieniania dotychczasowych linków wg nowych wskazówek oraz stosowania się do nich w przyszłości.

Nie wierzę w „dobroduszność” wyszukiwarki odnośnie tego, że nowe znaczniki „sponsored” oraz „ugc” mają pomóc webmasterom w zarządzaniu profilem linków – taaak jasne. Atrybut rel="sponsored" to nic innego jak przesłanie do Google swojego zaplecza linkowego zawierającego ten znacznik.
Po pewnym czasie za pewne tego typu miejsca zostałyby oflagowane i z dużym prawdopodobieństwem zostałyby traktowane jako spam. Oznaczając linki jako „sponsored” ujawniamy sporą część warsztatu budowania profilu linków dla stron swoich klientów. To dla taki upgrade narzędzia Disavow.

Z kolei atrybut „ugc” to w mojej opinii update i rozbicie na dwa samego „nofollow”. Atrybut dedykowany wpisom tworzonym przez użytkowników w internecie. Nie wnosi to nic rewolucyjnego, gdyż dotychczas w zbliżony sposób funkcjonowało samo „nofollow”.

Nie jestem takim optymistą odnośnie tej zmiany. Nie jest to dla mnie również rewolucja jakościowa – bo jaki sens jakościowy może mieć oflagowanie jako spam, sporej części internetu gdzie umieszczane są artykuły sponsorowane (od wielkich wydawców, po pojedyncze blogi).

Czy obecne zmiany w klasyfikacji atrybutów linków coś zmienią? W mojej opinii: NIE.

Linki oznaczone jako „sponsored” nic nie wniosą, poza tym, że Google dostanie podstawione pod nas nasze linki, które do tej pory jak widać były analizowane przez roboty. W nowej konfiguracji – Google nie musi już wykonać tej roboty, bo tą wykonaliśmy już za nich. Podkładamy się Google’owi i to na dodatek - na własne życzenie.

Linki oznaczone jako „ugc” również nie wprowadzają rewolucji – jeśli mają uchronić serwisy przed odpływem „link juice” to można to testować. Natomiast nam SEO-wcom zależy właśnie na przepływie mocy lub autorytetu.

Co należy robić? W mojej opinii – nic. Czekać i analizować, czy ma to jakikolwiek wpływ na osiągane wyniki. Jeśli wszystkie platformy blogowe zostaną „wyorane” to znaczy, że Google znowu działa na przekór SEO-wcom, a nie dba o jak najlepsze działanie algorytmu (bo ten z wieloletnich doświadczeń wiemy, że jest ułomny, a zaproponowane zmiany nic nie poprawiają, ani nie dywersyfikują działań linkbuildingu).

Kamil Demidowski

SEO Team Leader, https://kamildemidowski.pl/


Nie widzę powodu, dla którego ktokolwiek miałby używać atrybutu "sponsored". Mało prawdopodobne, żeby wydawcy sami chcieli podkładać się algorytmowi, flagując komercyjny linkbuilding, a z drugiej strony - SEO'wcy za takie linki przecież nie zapłacą. Rel "sponsored" będzie pewnie popularny wśród osób, które jako pierwsze wysyłały do Google "disavow" z listami seo-katalogów (czyt. rycerzy).

A "ugc"? Jeśli "ugc" będzie lepiej chronił wydawców stron (np. blogerów, właścicieli forów dyskusyjnych) przed drenażem linkjuice'u z domen, jakimi zarządzają, to dla mnie jak najbardziej okej. Bo "nofollow" może i nie przekazuje mocy z samego anchor text'u, to sam crawler za tymi linkami i tak podąża. Gdyby miało się okazać, że "ugc" wyklucza jakąkolwiek aktywność crawlera (tj. wstrzymuje crawlera i nie przekazuje nawet szczątkowego linkjuice'u), to na plus.
"ugc" trzeba będzie przetestować, a "sponsored" wykluczyć z dobrych praktyk. Dofollow górą.

Adrian Pakulski

Specjalista ds. SEO, https://paq-studio.com/


Nowe atrybuty rel nie zrobią furory. Ale i tak zrobią swoją robotę. W mojej ocenie wprowadzenie tych atrybutów to sygnał, że Google wkracza powoli w bardzo mocne wykorzystanie… sztucznej inteligencji.

Co potrzebuje sztuczna inteligencja aby „nauczyć się” wykonywać jakieś działanie? Potrzebuje danych szkoleniowych. Coś co inżynier będzie w stanie „włożyć” w algorytm SI i nauczyć go pewnych schematów. Chyba wiecie już w którą stronę zmierzam?

Daleki jestem od wszelkich teorii spiskowych ALE…

Wystarczy, że z nowych znaczników „sponsored” czy „ugc” korzystać będą tylko najwięksi wydawcy i kreatorzy treści a także kilka mniejszych stron (Ci którzy stwierdzą, że dla poprawy pozycji należy korzystać z tego rozwiązania lub po prostu boją się Google) i już mamy idealne dane wsadowe.

Jaki będzie tego efekt? Na początku pewnie pójdzie parę zasłon dymnych pokazujących jakie to te znaczniki są ważne. Możliwe, że faktycznie będą w jakimś tam drobnym stopniu wpływały pozytywnie na widoczność. Finalnie jednak – Google zrobi czary mary, hokus pokus i wdroży poprawkę uderzającą w najpopularniejszy ostatnio sposób linkowania – artykuły sponsorowane i marketing szeptany. Także szykujcie się – kolejny dzień zero zbliża się wielkimi krokami.

Tomasz Stopka

CEO, https://semurai.pl


Nowe atrybuty linków przedstawione przez Google 10 września mogą wiele zmienić w procesie pozycjonowania. Co prawda nie brakuje głosów, że pewnie wydawcy je w dużej mierze zignorują (podobnie jak z nieprzestrzeganiem wytycznych dotyczących używania atrybutu nofollow przy linkach o charakterze reklamowym) lub w ogóle nie będą świadomi ich istnienia. Jestem jednak przekonany, że mamy do czynienia z poważniejszym zjawiskiem.

Gdy w 2005 r. Matt Cutts ogłosił (https://googleblog.blogspot.com/2005/01/preventing-comment-spam.html) powstanie atrybutu nofollow, główną intencją było przeciwdziałanie SPAM-owi na blogach (i szerzej, we wszelkich miejscach, gdzie to użytkownik, a nie autor strony może dodać odnośnik).

Do tego szybko doszła rekomendacja, aby nofollow wykorzystywać także w przypadku wszelkiego rodzaju treści reklamowych (https://support.google.com/webmasters/answer/66356). W związku z powyższym można powiedzieć, że atrybuty ugc (user generated content) oraz sponsored niewiele zmieniają, bo niejako dublują to, co Google wprowadziło (wraz z szeregiem dostawców oprogramowania i wydawców) około 14 lat temu.

Podejrzewam jednak, że o ile ugc, sponsored będą mogły być stosowane wymiennie z nofollow w wielu przypadkach, to jednak ich waga będzie inna i każdy link będzie mógł podlegać bardziej precyzyjnej ocenie przez algorytm. Poniekąd już to się działo, od kiedy dowiedzieliśmy się, że nawet linki dofollow mogą zostać zdewaluowane, wykreślone z grafu i nie brane pod uwagę w procesie ustalania rankingu. Teraz dochodzi jeszcze jeden scenariusz - linki nofollow będą mogły być traktowane jako dofollow.

Google chce lepiej zrozumieć naturę linków w sieci i osobno interpretować te rzeczywiście tworzone przez użytkowników, te o charakterze jednoznacznie płatnym (chociaż to też może przenosić jakiś procent zaufania do reklamodawcy) i pozostałe, które być może oznaczone rel=„nofollow”, jednak powinny przenosić autorytet i link juice.

Jeśli odnośnik nofollow powiązany kontekstowo ze stroną docelową, zostaje umieszczony przez zaufanego autora na stronie o wysokim poziomie zaufania i specjalizacji w danym temacie, to czemu miałby nie działać na plus wskazywanego adresu URL? Takich przypadków może być wiele, a algorytm może dokonywać decyzji indywidualnie lub też bazując na machine learningu ekstrapolować wnioski z uprzednio zbadanych grup na całe zestawy linków.

Zatem stoimy przed scenariuszami, w których część linków (niech to nawet będzie ilościowo 5-10%) może zostać efektywniej zdewaluowana, a inne mogą zacząć się liczyć.

W dobie zaktualizowanego algorytmu Page Rank (http://www.seobythesea.com/2018/04/pagerank-updated/), gdzie liczy się nie sama moc linków (rozumiana jako suma jednostkowych wartości każdego z nich), lecz szukanie najkrótszej ścieżki do tzw. seeda, nawet niewielka zmiana w profilu odnośników może powodować znikanie pewnych ścieżek i powstawanie nowych. Czy w związku z tym w marcu 2020 r. (na ten czas zaplanowana pełne włączenie linków nofollow do crawlowania sieci) będziemy obserwować falę wzrostów i spadków? Trudno powiedzieć, bo możemy tylko spekulować na ten moment. Niemniej trzeba brać taki scenariusz pod uwagę, a także to, że bardzo ciężko będzie nam wtedy przeanalizować, co się dokładnie stało, gdyż raczej nie będziemy dostawać od Google raportu, które linki nofollow zostały włączone do grafu, a które dofollow wyłączone.

Szymon Słowik

SEO & Digital Marketing Strategist, https://takaoto.pro


Nowe atrybuty linków w prezencie od jaśnie nam panującego Google.

Kilka dni temu Google opublikowało informację, że prawie po 15 latach istniejący parametr dotyczący linków (czyli aktywnych odnośników prowadzących do witryn) wzbogaca o kolejne dwa parametry czyli „rel: sponsored” i „rel: ugc”. Pierwszy z nich ma dotyczyć linków reklamowo/sponsorowanych czyli takich które powinno się umieszczać w publikowanych materiałach reklamowych (w przypadku polskich realiów sami wiecie, że praktycznie chyba tym parametrem powinno być oznaczone ponad 90% wszystkich umieszczanych linków w sieci 😉 Drugi ma służyć oznaczaniu treści generowanych przez użytkowników serwisów którzy umieszczają treści w postaci komentarzy pod artykułami czy też w postaci postów na forach.

W związku z powyższym nasuwa się pytanie: ”Skąd i dlaczego taki pomysł na rozszerzenie atrybutów dotyczących linków o dwa nowe???

Moim zdaniem odpowiedź jest prosta: algorytm Google nadal jest w miarę łatwym (dla prawdziwych „SEOwców”) do zmanipulowania, nadal jego jednym z głównych parametrów jest jakość oraz ilość linków prowadzących do danej witryny internetowe. Napisałem jednym z głównych chociaż istnieją inne (nawet czasami ważniejsze parametry) decydujące o widoczności strony internetowej w wynikach wyszukiwań.

W związku z powyższym naturalnym było, że prędzej czy później twórcy algorytmu muszą go wzbogacić o parametry które pozwalały by na ocenę interakcji użytkowników oraz lepiej odróżnić odnośniki umieszczane „naturalnie” od tych umieszczanych w wiadomym celu. To chyba najprostsze wytłumaczenie tego co się stało. Po prostu jest to znaczne ułatwienie dla algorytmu pozwalające (teoretycznie) dokonać jeszcze lepszej oceny „wartości” danej strony, nie angażując zbytnio dodatkowych mocy przerobowych w analizę intencyjności umieszczenia danego linku oraz analizę serwisu w którym one zostały umieszczone.

W sumie takie działanie niejako stoi w sprzeczności z informacjami/plotkami sprzed jakiegoś tam czasu dotyczącymi tego, iż Google zaczyna odchodzić od oceny witryny na podstawie prowadzących do niej linków zwrotnych.

Co to zmieni w branży?

Praktycznie nic się nie powinno zmienić, z pewnością nowe parametry wprowadzą dostawcy silników blogowych oraz for internetowych. Ja zastanawiam się nad jednym, skoro Google ustami swoich przedstawicieli cały czas trąbiło wszem i wobec , że najważniejsze w rankowaniu są sygnały pochodzące od użytkowników, to jaką wartość w rankowniu danej witryny będzie miał link z parametrem „rel: ugc” w porównaniu z odnośnikiem „klasycznym” pozbawionym jakiegokolwiek atrybutu???

Na odpowiedź trzeba będzie poczekać tak z kilka miesięcy obserwując i analizując „nowe” backlinki prowadzące do serwisów.

P.S. Jestem ciekaw, które narzędzie do analizy linków zwrotnych zostanie jako pierwsze wzbogacone o możliwość zliczania linków z nowymi parametrami.

Krzysztof Ziółkowski

CEO Jarida Group, https://www.jarida.pl/


Nowe wytyczne Google spowodowały więcej niejasności i zamieszania, niż usprawnienia. Od razu nasuwa się pytanie „dlaczego Google wprowadziło zmiany w atrybucie „rel”? Niby stanowisko Google w tej sprawie jest jasne, ale po co robić segregacje linków „nofollow” na „sponsorowany” i „komentarz”?

W oficjalnych ogłoszeniach Google zawsze szukałem drugiego dna i tak jest i tym razem. Co daje Google wiadomość o linkach wychodzący z parametrem rel=”sponsored”? Informację, że my jako serwis nie rekomendujemy artykułu u nas zamieszczonego, bo jest to czyjaś publikacja i MY się pod nią nie podpisujemy.

Jak Google zachowa się wobec takiej publikacji? Jak Google zachowa się wobec serwisu, który ma tylko takie linki? Na pewno na te pytania poznamy odpowiedź w niedalekiej przyszłości. Bo w końcu po coś zostały wprowadzone te nowe oznaczenie i w moim odczuciu nie będą dotyczyły stron linkowanych a linkujących. Zatem moja teoria jest taka, że Google tutaj bardziej będzie się interesowała stronami, które mają takie linki, jak tymi, do których te linki lecą.

Tomasz Wieliczko

Dyrektor ds. SEO, http://xann.pl


Wprowadzenie przez Google nowych atrybutów może stanowić otwarcie nowego rozdziału. Atrybut "user generated content" Wiedzieliśmy, że treści dostarczane przez użytkowników są ważne,  teraz fakt ten jest wyraźnie zaakcentowany. W strefie domysłów pozostaje, jak silne będzie oddziaływanie takich treści na widoczność witryny na konkretne słowa kluczowe. Dużo mniej emocji wzbudza bez wątpienia atrybut "sponsored".

Możemy przypuszczać, iż będzie on marginalizował moc linku oznaczonego takim atrybutem, ze względu na jego reklamowy charakter. Nie pozostanie nam jednak nic innego, jak eksperymentować i sprawdzać, jak nowe atrybuty będą przekładały się na pozycje. Im szybciej wyciągniemy konkretne wnioski, tym efektywniejsza powinna być nasza praca.

Paweł Sypniewski

Właściciel GM Media, https://gmmedia.com.pl/


Uważam, że o ile wprowadzenie przez Google dodatkowych wartości atrybutu rel niewiele zmieni, to zmiana podejścia do nofollow może być znamienna. Oznaczanie linków atrybutem rel="nofollow" stanowiło do tej pory m.in. ochronę przed sklasyfikowaniem niektórych linków jako łamiących wytyczne Google. Istotna zmiana, o której Google nas poinformowało, to możliwość oceny przez algorytm, czy użytkownik zasadnie zastosował nofollow dla linka oraz potraktowania tego oznaczenia jako wskazówkę.

Ponieważ dotąd rel="nofollow" był zerojedynkowy - wyłączał całkowicie przepływ PageRanku, to z lęku właścicieli stron przed potencjalną karą mógł być wykorzystywany nieoptymalnie - po fali filtrów dla stron wywołanych przez algorytm Pingwin w 2013 roku wielu administratorów serwisów wolało dmuchać na zimne i stosowało nofollow masowo, co z punktu widzenia algorytmu również jest niekorzystne. Teraz to Google oceni, czy (a może też w jakim stopniu) tak oznaczone linki rzeczywiście powinny blokować przepływ mocy.

Należy się spodziewać, że część linków oznaczonych przez rel="nofollow" zacznie przenosić moc wskutek pozytywnej ich weryfikacji przez Google.

W praktyce może to wyrównać szanse między stronami, które linkują w sposób bardzo zachowawczy, stosując oznaczenie nofollow hurtowo, a stronami, które prowadzą śmielsze (względem wytycznych Google) strategie linkbuildingu, odważniej kalkulując ryzyko.

Jednocześnie dowiedzieliśmy się, że linki zamieszczone w komentarzach Google chce traktować podobnie jak nofollow - ograniczać im przepływ mocy za pomocą atrybutu rel=”ugc”. Jako wyjątek w linkach w komentarzach, Google pozostawia dla komentujących, którzy zbudowali pewne zaufanie do siebie w danym serwisie. W ich przypadku atrybut rel="ugc" może być pomijany. To dość nieostre wytyczne, które zapewne zaowocują w branży SEO dyskusjami na temat, kiedy dany komentarz zasługuje na przekazanie mocy, a kiedy nie. Inżynierowie z Google również pewnie zdają sobie sprawę z faktu, że oznaczanie archiwalnych komentarzy nowym atrybutem może nastręczać sporo trudności, gdyż wymaga aktualizacji miliardów rekordów zapisanych w bazach danych. Z uwagi na to spodziewałbym się, że z większą pobłażliwością będą podchodzić do oznaczeń komentarzy, niż oznaczeń linków reklamowych.

Spodziewam się także, że Google będzie oceniał stosowanie tych oznaczeń stosownie do geolokalizacji strony z uwagi na różne podejście do wytycznych Google w krajach np. zachodniej i wschodniej Europy. Czas pokaże 🙂

Tomasz Kołkiewicz

CEO, https://seo4.net/


Google rozszerzyło pulę branych pod uwagę atrybutów linków o rel="sponsored" dla linków sponsorowanych, opłaconych oraz rel="ugc" dla linków generowanych przez użytkowników (User Generated Content). Oba atrybuty działają samodzielnie oraz w kombinacji ze sobą i z rel=”nofollow”. Równolegle zmieniono sposób interpretacji atrybutu rel="nofollow" jako „podpowiedź” nie dyrektywa.

Zmiana wpływa analogicznie na atrybut „nofollow” nałożony na linki w meta tagu „robots” (https://twitter.com/methode/status/1171951127916699648?s=21). Zapowiedziano też na marzec 2020 roku rozszerzenie tej interpretacji na wpływ atrybutu rel="nofollow" na crawlowanie i indeksację.

Zmiany mają na celu wykorzystanie przez Google większej ilości informacji dotyczących linków, m.in. ich anchor text (zmiana na „podpowiedź”) oraz lepsze zrozumienie nienaturalnych schematów linkowania. Dodatkowo zmiana na „podpowiedź” pozwala Google na branie pod uwagę linków mimo ich oznaczenia.

Zmiana z rel=”nofollow” na rel="sponsored" lub rel="ugc" (lub ich dodanie) nie jest wymagana. Aktualne rozwiązanie również jest akceptowane w wytycznych Google jako rozwiązanie dla linków, które nie powinny wpływać na ranking. Wydawcy mają dodatkowe możliwości jednak czy rzeczywiście wskazywanie linków sponsorowanych w tak oczywisty sposób będzie dla nich korzystnym rozwiązaniem? Podejrzewam, że z czasem ta „dobrowolność” wdrożenia nowych atrybutów może się zmieniać.

Mając tą świadomość, dla serwisów, które zarabiają na sprzedaży linków nieoznaczonych do tej pory rel=”nofollow” niewiele się zmienia. W dalszym ciągu brak oznaczenia jest dla serwisu ryzykiem kary za linki wychodzące, a cena sprzedaży linka jest pochodną braku jego oznaczenia.

Co rzeczywiście może się zmienić? Pisząc ten komentarz wyobrażam sobie wzrost liczby autorów / źródeł dla wpisów na przykład na Wikipedii czy moderowanych forach tematycznych. Linki oznaczone rel=”nofollow” mają od teraz oficjalnie potencjał wpływać na ranking i jest to tym bardziej prawdopodobne im większy autorytet serwisu, na którym są zamieszczone. Podejrzewam jednak, że ważna będzie przy tym jakość strony docelowej linka, jej wartość merytoryczna więc zupełny spam prawdopodobnie tutaj aż tak nie skorzysta. Na pewno jednak będą osoby chcące przetestować / wykorzystać tą szansę.

Zwiększyć się może zróżnicowanie ofert publikacji sponsorowanych o różne wersje oznaczeń jednak nie ma to większego sensu dopóki nie pojawią się potwierdzone (przetestowane) różnice w interpretacji przez Google poszczególnych „podpowiedzi” w atrybutach linków. Można na przykład spodziewać się większego wpływu na pozycje linków z rel=”ugc” i rel=”nofollow” niż z rel=”sponsored” a więc i większego popytu na takie oferty.

Trzeba też mieć na uwadze zapowiedzianą zmianę wpływu rel=”nofollow” na crawlowanie i indeksację jeśli do tej pory ktoś korzystał wyłącznie z tego rozwiązania np. w przypadku nawigacji fasetowej. Moim zdaniem już teraz warto rozważyć i zaplanować wdrożenie innej metody zarządzania indeksacją.

Katarzyna Jakubów-Tyka

Kierownik działu SEO , netim.pl


Są to zmiany, które będzie można w jakimś stopniu mierzyć i testować. W przeszłości mieliśmy wiele aktualizacji algorytmu Google typu Hummingbird, Rankbrain czy wiele nieoficjalnych, nazwanych przez seowców jak Phantom itd. Nie było jednak jasnego punktu odniesienia czego tamte aktualizacje dotyczyły, więc pojawiała się masa różnych publikacji i teorii, czasem mocno naciąganych. Dodatkowo, po odejściu Matta Cuttsa Google wybrało ścieżkę zero komunikacji. Na szczęście od kiedy w Google zaczął pracować Danny Sullivan to stopniowo się poprawia. W tym przypadku mamy konkretne wskazanie - po 15 latach zmieniamy podejście do nofollow, wprowadzamy nowe tagi itd. Pozwoli to przeprowadzić seowcom testy i sprawdzić skalę zmian. Poczekajmy, wyniki mogą być ciekawe.

Dużo emocji wzbudza wprowadzenie tagu sponsored. Z dotychczasowych informacji wynika, że to będzie bardziej doprecyzowana wersja nofollow. Pytanie, czy wydawcy będą stosowali ten tag? Mogę sobie wyobrazić scenariusz, gdzie wysyłana jest fala kar manualnych dla wydawców tekstów sponsorowanych, by wzbudzić strach i przekonać do stosowania odpowiednich oznaczeń. Jak sam tag sponsored będzie działał w praktyce przy linkowaniu? To również jest do przetestowania.

Uważam, że dużo więcej ciekawych informacji, właśnie na bazie testów, będziemy mieli za kilka miesięcy i wtedy będzie można podjąć bardziej konkretne decyzje czy zmieniać coś w swojej strategii i podejściu do linkowania.

Szymon Spychała

carted.pl


W mojej opinii to kolejny krok w walce z „nienaturalnym” linkowaniem. Jeżeli wydawca publikował płatne treści, w których umieszczał linki wychodzące, to zgodnie z dotychczasowymi wytycznymi Google, musiał oznaczyć artykuł jako sponsorowany, a także użyć atrybutu rel="nofollow" dla linków wychodzących. Nowy atrybut rel="sponsored" ma ułatwić decyzję wydawcom, w jaki sposób oznaczać linki wychodzące z płatnych artykułów w ich serwisach. W przypadku treści sponsorowanych, nie zawsze link wychodzący oznaczony jako rel="nofollow" prowadził do strony o niskiej reputacji, a często wręcz przeciwnie.

Teraz ma to być uporządkowane i zróżnicowane, mianowicie linkując do wartościowej strony z artykułu sponsorowanego, wydawca może użyć nowego atrybutu, innego niż rel="nofollow", ale określającego, że link jest kupiony. Nie oznacza to oczywiście, że link rel="sponsored" będzie traktowany jak "dofollow", pomoże natomiast robotom wyszukiwarki Google w jeszcze lepszym rozumieniu intencji wydawcy umieszczającego link, a tak naprawdę w walce z „nienaturalnym” linkowaniem (zapewne takie jest założenie). Podobnie z linkami wstawianymi samodzielnie przez użytkowników - należy wtedy użyć atrybutu rel="ugc". Również w tym przypadku pomoże to określić Googlebotowi rodzaj linków i jeszcze lepiej analizować domeny i ich profile linkowania.

W finalnym rozrachunku Google będzie deprecjonować moc linków rel="sponsored" i rel="ugc", tak jak ma to miejsce w przypadku rel="nofollow", z tym wyjątkiem, że teraz będzie jeszcze bardziej pewne, skąd pochodzi link. Dodatkowo będzie mogło jeszcze dokładniej „wyłapywać" witryny, do których w znacznej większości prowadzą linki np. z komentarzy na blogach/forach lub z kupionych artykułów sponsorowanych. Oczywiście, jeżeli nowe atrybuty zostaną realnie używane przez właścicieli witryn internetowych.

Dawid Medwediuk

SEO Specialist , dawidmed.com


Do tej pory wybór był prosty - publikacja linku nofollow lub tzw. dofollow. Teraz trochę to się zmieni. Moim zdaniem nowe atrybuty linków "sponsored" i "ugc" wprowadzą małe zamieszanie w życiu osób zajmujących się strategią pozyskiwania odnośników. Jest to dla mnie małe zaskoczenie, bo mogłoby się wydawać, że Google już wcześniej potrafił sprawnie rozpoznawać schematy linkowania, określać wartość odnośników i na tej podstawie "uczyć się", które linki to przejaw manipulowania rankingiem.

Zmiany wprowadzane przez Google mogą zaskoczyć wydawców. Co niektórzy nie będą świadomi nowych atrybutów dla linków. Najbliższe prośby o lokowanie odnośników z nowymi atrybutami "sponsored" bądź "ugc" mogą być za pierwszym razem egzotyczne. Tym samym rodzi to też potrzebę, aby same platformy pośredniczące w publikacjach wprowadziły docelowo modyfikacje w tym kierunku. Czy to oznacza zmianę cenników publikacji? Tego nie wiem, na pewno w najbliższym czasie mogą się pojawić kolejne pozycje w cennikach.

Na pewno czasu będą potrzebować też developerzy, którzy przez ostatni czas budowali serwisy. Tym samym systemy komentarzy czy postowania powstawały z przekonaniem, że linki należy tagować atrybutem nofollow bądź pomijać wszelkie atrybuty dla linków wychodzących.

To jest dobry czas, aby testować i sprawdzać, jak nowe atrybuty wpływają (lub nie) na końcową widoczność serwisów. Obawiam się jedynie, że Google może dewaluować w przyszłości linki (oby nie), skoro pozyska dodatkowe wskazówki odnośnie schematów lokowania linków. Moje rady? Myśleć już teraz o tym, że Google chciałby się nauczyć więcej o stosowanych strategiach link buildingu. Ja polecam dywersyfikować profile linkowe domen, zarówno w kwestii tekstów zakotwiczenia, serwisów jak i sposobu lokowania.

Piotr Michalak

Doradca Zarządu ds. rozwoju biznesu, https://piotrmichalak.pl/


Zmiany w atrybutach linków - podsumowanie

Wbrew pozorom intuicja, doświadczonych już przez życie (Google?) SEOwców, prowadzi Ich w podobnym kierunku.  Z wypowiedzi 17 Ekspertów, których poprosiliśmy o wyrażenie opinii na temat nowych atrybutów linków, wynika kilka ważnych rzeczy:

  1. Wprowadzenie rel=„sponsored” i rel=„ugc” ma na celu lepsze zrozumienie przez Google grafu linków i jest niejako kolejnym „wcieleniem” Disavow Tool. Wystarczy, by zaledwie część stron zaczęła stosować nowe atrybuty, a algorytmy będą mogły lepiej poznać i „zrozumieć” schematy w linkowaniu. Jako SEOwcy nie boimy się teorii spiskowych -  doświadczenie nauczyło nas, że niewiele zmian w Google dzieje się „tak po prostu”.
  2. Wdrożenie generuje szereg problemów i musi potrwać. Niełatwa będzie zmiana świadomości webdeveloperów i właścicieli stron. Istnieją również obawy, że ostatecznie ta zmiana może wpłynąć na ceny publikacji bez atrybutu „sponsored”.
  3. Wartość linka z nowym atrybutem może być bardzo niska lub nawet zerowa.
  4. Najważniejszą zmianą jest jednak ta, o której mówi się mniej i która została niejako przemycona w komunikacie Google, czyli rozpoczęcie traktowania rel=„nofollow” nie jako dyrektywę, ale sugestię, z którą wyszukiwarka może zrobić… tak naprawdę co chce.
  5. Nasi Eksperci przypuszczają, moim zdaniem słusznie, że wprowadzenie nofollow 15 lat temu i kolejne aktualizacje algorytmu Pingwin doprowadziły nas do momentu, w którym nawet w naturalnym linkowaniu i powoływaniu się na źrodło, wydawcy i webmasterzy nagminnie boją się użyć linka dofolow. Z tego względu zmiany są konieczne.

A co Ty sądzisz o nowych atrybutach i zmianie sposobu traktowania nofollow? Masz podobną czy odmienną opinię? Podziel się nią z nami w komentarzu 🙂

Ewelina Podrez

Red. Aleksandra Sudnik

W pierwszej części serii, którą przeczytasz pod tym linkiem,  poza wskazaniem podstawowych przyczyn powstawania kopii treści oraz sposobów jej eliminowania, przeczytasz także o rozróżnieniu zjawiska duplikacji na duplikację zewnętrzną oraz wewnętrzną. W części drugiej przyjrzymy się narzędziowej analizie stron pod kątem obu z nich. Role główne dla tego wpisu zajmują popularne narzędzia Copyscape oraz Siteliner. W tym wpisie dokonamy ich przeglądu, skupiając się na praktycznym omówieniu ich funkcji.

Kto kradnie moją treść?! – Analiza duplikacji zewnętrznej

Tworząc pierwszy wpis serii, wskazałem negatywny stosunek Google do zewnętrznych kopii treści. Sprawiedliwie byłoby, gdyby zawsze za duplikat karany był „pożyczający”. Praktyka pokazuje jednak, że osąd Google nie zawsze przychyli się w tym wypadku do rzeczywistego autora. Jeśli treści ukradł większy konkurent, portal lub Twoja treść trafiła do porównywarki cenowej, sankcje z tego tytułu mogą spaść na Twoją witrynę lub sklep internetowy.

Narzędzie Copyscape

Na szczęście, każdy właściciel strony internetowej może sprawdzić unikalność treści swojego serwisu, wykorzystując w tym celu popularne narzędzie do analizy duplikacji zewnętrznej - Copyscape. W prostych słowach, przeszukuje ono internet w poszukiwaniu odpowiadających sobie kopii tekstów. Co więcej, Copyscape wskazuje nie tylko linki do kopii, ale także zaznacza zduplikowane fragmenty (Dzięki temu nie jesteśmy zmuszani do ich samodzielnego określania lub do wymiany całego tekstu).

Czy to jest darmowe?

I tak, i nie. Copyscape oferuje swoją najważniejszą funkcję, czyli podstawową wyszukiwarkę duplikatów treści, za darmo, choć w ograniczonej liczbie zapytań na dobę. Jeśli posiadasz niewielką witrynę, liczącą kilka lub kilkanaście podstron, obędzie się bez żadnych kosztów (co najwyżej analizę trzeba będzie rozłożyć na kilka dni). Po wyczerpaniu dziennego limitu darmowych zapytań narzędzie przekaże nam stosowny komunikat i zaniecha weryfikacji adresu.

Komunikat wyczerpania limitu darmowych zapytań narzędzia Copyscape

 Jeśli chcesz przeanalizować większą witrynę, należy założyć konto i zasilić je odpowiednią kwotą. Podstrony rozwinięte o większą ilość treści będą kosztowały ponad 20 centów za jedno zapytanie. „Lżejsze” podstrony pochłoną odpowiednio mniejszą kwotę. Analiza duplikacji może okazać się budżetowym wyzwaniem w sytuacji, w której prowadzisz sklep internetowy, a to w nich najczęściej treść jest kradziona.

Główny interfejs

Copyscape oferuje prosty i przejrzysty interfejs. Główne okno nie pozwala na zagubienie się w dostępnych opcjach. Pozwala ono jedynie na wpisanie adresu URL, który chcemy analizować pod kątem duplikacji treści i kliknięcie przycisku „Go” w celu rozpoczęcia analizy:

Okno główne narzędzia Copyscape

W przypadku, w którym dla analizowanego adresu nie odnaleziono kopii, otrzymamy na ten temat stosowny komunikat:

Komunikat o braku wykrytych duplikatów


Jeżeli narzędzie znajdzie zewnętrzne odpowiedniki naszej treści, otrzymamy zawierającą je listę adresów URL oraz przykład skopiowanego fragmentu:

Okno rezultatów analizy duplikacji

Przykład skopiowanego fragmentu jest bardzo użyteczną właściwością Copyscape, która pozwala na szybkie ignorowanie duplikatów elementów stałych szablonu strony, takich jak np. modułu komentarzy (duplikat duplikatowi nierówny).

Klikając dowolny z wyników analizy, zostaniemy przeniesieni do okna prezentującego podstronę zawierającą kopię tekstu. Z informacji dowiemy się ile słów pokrywa się z treścią źródłową oraz jaki jest nieunikalny procent treści. Copyscape zakreśla też zduplikowane fragmenty. Jak widać na poniższym zrzucie, kopią okazał się jedynie element stały, którym nie powinniśmy się przejmować.

Wskazanie zduplikowanych fragmentów treści

Premium Search czyli Copyscape w wersji Premium

Po darmowej rejestracji konta, z poziomu menu nawigacyjnego możemy dostać się do zakładki „Premium Search” (Pamiętam, że za pierwszym razem minęło kilka minut, zanim odnalazłem się w nawigacji dla zarejestrowanych użytkowników):

Położenie Premium Search w menu nawigacyjnym Copyscape

Warto wspomnieć, że z poziomu okna Premium Search możemy podać nie tylko adres URL, ale także fragment treści do analizy. Istnieje jeszcze jedna drobna nowość… Narzędzie stale przypomina nam o kwocie pozostałej do wykorzystania.

Na co jeszcze warto zwrócić uwagę w Copyscape?

Copyscape oferuje także kilka innych funkcji, o których warto przynajmniej wspomnieć.

Batch Search

Ręczna analiza kilkuset podstron z pewnością nie należy do najciekawszych zajęć. Dlatego też Copyscape, z pomocą funkcji Batch Search, oferuje nam możliwość automatycznej analizy wskazanej listy adresów.

Okno Batch Search

Premium API

Czyli coś dla deweloperów – Copyscape umożliwia nam integrację Copyscape Premium z naszą witryną, co pozwoli na bieżącą analizę dodawanego contentu pod kątem unikalności.

Copysentry

Warta uwagi, ale także dodatkowo płatna, funkcja Copyscape, polegająca na systematycznej (cotygodniowej lub codziennej) analizie duplikacji treści wskazanych przez nas podstron lub całej witryny.

Narzędzie do porównywania treści

Darmowe narzędzie pozwala na porównaniu treści dwóch stron WWW lub dwóch wklejonych przez nas fragmentów treści. Przydaje się kiedy publikujemy kilka tekstów na ten sam temat w obrębie różnych witryn lub kiedy samodzielnie zdiagnozujemy potencjalny duplikat i chcemy sprawdzić jego skalę.

Copyscape - Podsumowanie

Copyscape to najpopularniejsze narzędzie (obok ręcznej weryfikacji kopii tekstów poprzez wyszukiwarkę Google) do analizy duplikacji zewnętrznej. Nic dziwnego. W zasadzie ofertuje tylko tyle i aż tyle, doskonale pełniąc swoją rolę.

Kopie treści  w obrębie witryny – Analiza duplikacji wewnętrznej

Do zwalczania zjawiska duplikacji treści należy podejść dwutorowo, doszukując się kopii nie tylko poza własną witryną, ale także w jej obrębie. W zadaniu tym również uzyskamy pomoc narzędziową, w dodatku za sprawą tej samej firmy, która każdego dnia dostarcza webmasterom narzędzie Copyscape – Indigo Stream Technologies.

Narzędzie Siteliner

Narzędzie Siteliner pozwala na pełną analizę duplikacji treści w obrębie domeny. Już od samego wyświetlenia głównego okna narzędzia, na myśl może przyjść bardzo duże podobieństwo do Copyscape. Mechanizm działania jest jednak nieco inny. Siteliner, już w podstawowej wersji, dokonuje analizy całej domeny pod kątem duplikacji wewnętrznej (W przypadku podstawowej wersji Copyscape narzędzie poszukuje duplikatów dla konkretnego adresu URL).

Okno główne narzędzia Siteliner

Czy Siteliner jest płatny?

Narzędzie Siteliner pozwala na jednokrotną darmową analizę witryny w ciągu miesiąca (30 dni), liczącą do 250 podstron. W przypadku chęci wykonania dodatkowej analizy albo większej witryny, koniecznością będzie skorzystanie z wersji Premium narzędzia, która pobiera 1 cent za każdą analizowaną podstronę. Siteliner pozwala także na ustawienie limitu stron, które weźmie pod uwagę, co zapobiega nieoczekiwanemu przekroczeniu budżetu.

Analiza raportu z Sitelinera

Raport podsumowujący

Raport narzędzia Siteliner, w porównaniu do Copyscape jest nieco bardziej złożony. Główne okno przedstawia listę potencjalnych głównych problemów witryny oraz przedstawione na wykresach podsumowanie, dotyczące:

Podstawowe podsumowanie raportu narzędzia Siteliner
Dodatkowe dane podsumowujące narzędzia Siteliner

Raport szczegółowy duplikacji treści

Dane podsumowujące dostarczają nam ogólną ocenę unikalności treści w naszym serwisie. Aby jednak zdiagnozować, które podstrony zawierają treść zduplikowaną, musimy skorzystać z raportu szczegółowego, który znajdziemy pod nazwą „Duplicate content”. Raport zawiera listę adresów URL, liczbę potencjalnych duplikatów, procent zduplikowanej treści, a także liczbę słów, dla których znaleziono odpowiedniki.

Raport duplikacji treści

Po kliknięciu wybranego adresu, przechodzimy do strony podglądu, w którym kolorami zakreślone są fragmenty będące duplikatami. Obrazowo przedstawia to poniższy zrzut ekranu, pochodzący z losowo wybranej witryny w internecie:

Przykładowy raport podstrony wskazujący zduplikowane fragmenty treści

W oknie głównym widzimy, że duplikat w tym wypadku stanowi menu górne, czym nie należy się martwić. Zduplikowana jest również stopka, zawierająca linki wewnętrzne i dane kontaktowe (również element stały witryny). Pozostała część tekstu (nieobecna na zrzucie ekranu) okazała się unikalna. Co ciekawe, elementy stałe, w powyższym przypadku zostały oznaczone jako duplikat, choć narzędzie stara się rozróżniać kopie tego typu i oznaczać je jako „Common Content”

Raportowanie w Siteliner

Z dodatkowych informacji, warto wspomnieć, że Siteliner pozwala nam generować raporty PDF oraz CSV, co przyda się zwłaszcza w sytuacji, w której zamierzamy przesłać go dalej – klientowi, copywriterowi czy web developerowi. Przeważnie. W przypadku raportu liczącego powyżej 2500 rekordów, szczegółowy raport nie jest dostępny. Jeśli chcemy udostępnić raport, możemy przekazać do niego adres URL, gdzie niekiedy czeka kolejna niemiła niespodzianka – z niewiadomych powodów niemożliwe jest wejście do raportu wskazującego zduplikowane fragmenty (Taka sytuacja w przypadku naszego konta wystąpiła już dwukrotnie). Ot, taka łyżka dziegciu na sam koniec, a zarazem okazja do sprawdzenia pomocy technicznej.

Podsumowanie

Tak jak w przypadku Copyscape, trudno pokusić się o dłuższe podsumowanie także Sitelinera. Oba narzędzia nie należą do kombajnów. Są proste w obsłudze, a każde z nich spełnia przede wszystkim swoją podstawową funkcję. Robią to jednak bardzo dobrze (Choć Sitelinerowi daję minusa za problemy techniczne, które odnotowujemy na naszym koncie) i stanowią doskonałą pomoc w rękach nie tylko doświadczonych SEOwców i Copywriterów, ale także drobnych webmasterów i właścicieli swoich biznesów, którzy chcą na własną rękę sprawdzić swoją stronę internetową pod kątem duplikacji treści. A warto! Jeśli chcesz dowiedzieć się dlaczego, zapraszam do lektury pierwszej części cyklu: „Jak wykrywać, eliminować i zapobiegać duplikacji treści?”, w której omówione zostały podstawy tego zjawiska. Zapowiadamy jednocześnie trzecią, ostatnią część, która skupi się na wskazaniu praktycznych przykładów przyczyn powstawania duplikatów i sposobach ich eliminacji.  

Jeśli dobrze wybrałeś frazy i pojawiasz się wysoko w wyszukiwarce na zapytania swoich odbiorców, ale liczba odwiedzin witryny nadal jest poniżej oczekiwań, prawdopodobnie nie zadbałeś o wysoką jakość Description na swojej stronie. Można to naprawić. Poznaj cechy skutecznego meta tagu Description i zacznij liczyć nowych użytkowników.

Chyba nikomu nie trzeba tłumaczyć, jak istotną kwestią z punktu widzenia sukcesu w Internecie jest uzyskanie wysokiej pozycji w wyszukiwarce na kluczowe frazy oraz jak bardzo trzeba się napracować, by to osiągnąć. I nie ważne, czy jesteś właścicielem sklepu internetowego, czy prowadzisz bloga. Cel jest ten sam – dotrzeć do potencjalnego klienta. Wysokie wyniki w SERP to jedno, ale zmotywowanie użytkownika wyszukiwarki, by wybrał akurat twoją stronę, to już inna para butów. I tutaj z pomocą przychodzi wiedza na temat tagu meta Description.

Czym jest meta tag Description?

Atrybut opisu w tagu <meta> pozwala w zwięzły i zrozumiały sposób wyświetlić użytkownikowi podsumowania zawartości poszczególnych stron. Innymi słowy meta tag Description to fragment kodu HTML, którego główną funkcją jest opisanie zawartości konkretnej strony internetowej.

Tag Description definiuje się w dokumencie HTML pomiędzy tagami <head></head> w poniższy sposób:

<meta name="description" content="Nasza propozycja opisu strony" />

A tak wygląda opis meta description w wyszukiwarce:

Niechlubna historia meta tagu Description

W przeszłości istniała trójca tagów, która miała olbrzymi wpływ na pozycję strony w wyszukiwarce i były to:

Z biegiem czasu problem spamu i nadużywania liczby słów kluczowych w meta tagach (efekt keyword stuffingu), wymusił na Google zmiany algorytmu. Efektem tego od 2009 roku rola meta tagów Description i Keyword w procesie pozycjonowania strony została zredukowana niemal do zera. Aktualnie Meta Keyword przestał mieć znaczenie, a jego stosowanie może prędzej czy później zaszkodzić serwisowi.

Marketingowa moc meta tagu Description

Mimo że omawiany atrybut opisu nie wpływa – według oficjalnych źródeł Google – na wysoką pozycję w wyszukiwarce, błędem jest pozostawianie go bez opieki. Zaraz po meta Title, Description to drugi czynnik, który wpływa na klikalność wyników organicznych. Co więcej, możliwość napisania własnego Description daje nam możliwość wyróżnienia się na tle konkurencji, a to już jest poważny atut.

Kolejnym argumentem, który powinien zachęcić do tworzenia własnych opisów, jest kwestia kontroli nad snippetem. Czym jest snippet? To fragment tekstu z naszego serwisu umieszczony pod widocznym adresem URL strony w wynikach wyszukiwania. Często generowany przez Google snippet nie jest atrakcyjny z punktu widzenia marketingowego i może obniżyć CTR danej witryny.

Źródło: https://backlinko.com/google-ctr-stats

10 przykazań skutecznego meta tagu Description

Skoro kwestia znaczenia atrybutu opisu została już obszernie omówiona (przynajmniej mam taką nadzieję), zaprezentuję cechy, którymi powinien wyróżniać się tag Description.
  1. Słowa kluczowe

Stosuj w opisie frazy, które pojawiają się także w tagu Title. Dlaczego? Dzięki temu słowo kluczowe zostanie pogrubione w momencie, gdy użytkownik użyje go w wyszukiwarce, a tym samym opis będzie się wyróżniał na tle konkurencji. Description to nie magazyn na słowa kluczowe, więc uważaj, aby nie przesadzić z ich ilością. Nie powtarzajmy błędów „specjalistów SEO” sprzed dekady. I jeszcze jedna ważna rzecz, możesz śmiało stosować odmiany przez przypadki danego słowa kluczowego oraz jego synonimy. Algorytm Google robi się coraz bardziej ogarnięty w języku polskim i pogrubi taką frazę.
  1. Użyteczna treść

Pamiętaj, aby treść Description odpowiadała zawartości strony docelowej. Robot Google uzna wtedy opis za adekwatny do charakteru serwisu i nie wygeneruje snippeta, ale co najważniejsze, nie zawiedziemy oczekiwań użytkownika względem naszej witryny.
  1. Długość ma znaczenie…

Objętość opisu jest ograniczona i spotkałem się z twierdzeniami, że Description nie powinien przekraczać 160 znaków ze spacjami, czasami jest mowa o 320 znakach. Prawdą jest jednak, że nie o liczbę znaków tu chodzi, lecz o liczbę pixeli – obszar Description nie powinien przekraczać 923 px. Poniżej zamieszczam link (jeden z wielu dostępnych w Internecie) do narzędzia, które pomaga w liczeniu długości tekstu opisu oraz Title:

http://ezlocal.com/tools/meta-title-counter/

  1. Call To Action

Description powinien zawierać wezwanie do akcji (CTA). Call To Action sugeruje użytkownikowi podjęcie konkretnego działania, na którym nam zależy (Najbardziej Oczekiwana Akcja według koncepcji NOA), a jego obecność poprawia wskaźnik klikalności serwisu. CTA pozwala użytkownikowi odnaleźć się w natłoku informacji i wskazuje kolejny krok w procesie poszukiwania wiedzy lub produktu.

Przykłady CTA:

Sprawdź!

Zobacz katalog produktów!

Sprawdź aktualne ceny!

Kup teraz!

Dowiedz się więcej!

  1. Unikatowa treść

Robot Google to taka rozpieszczona bestia, która lubi tylko oryginalne rzeczy. Pamiętaj więc o tym, aby nie kopiować opisów z własnej witryny, a tym bardziej z cudzej strony. Każda podstrona powinna mieć swój własny, unikatowy Description.
  1. Przekazuj informacje

Stosowanie liczb, cen oraz wartości procentowych skutecznie wyróżnia nasz serwis na tle konkurencji, ale przede wszystkim przekazuje konkretną informację i wzbudza wiarygodność. Który komunikat bardziej przemawia do potencjalnych klientów: „teraz wszystkie produkty kupisz z rabatem 30%”, czy „teraz wszystkie produkty kupisz taniej”? Ludzie lubią konkrety.
  1. Nie rozpisuj się

Najlepiej sprawdzają się krótkie i proste zdania bez wielokrotnych złożeń – dwa, trzy krótkie zdania w zupełności wystarczą. Weź przykład z tekstów AdWords, które ograniczone są limitami znaków. Pamiętaj, że Description powinien być dopełnieniem tytułu, a nie jego powtórzeniem.
  1. Słowa hipnotyczne

Hipnotyczne słowa typu: okazja, bestseller, rabat, promocja zwiększają atrakcyjność komunikatu i przyciągają uwagę internautów. Tego typu frazy warto pisać wersalikami, aby były jeszcze bardziej widoczne dla użytkownika.
  1. Unikalna Cecha Oferty

USP (Unique Selling Proposition) to cecha produktu, marki lub usługi, która wyróżnia ją na tle konkurencji i należy się tym chwalić. Jeżeli nie posiadamy unikalnej cechy oferty, warto stworzyć ją samemu, aby nasze Description było jeszcze bardziej atrakcyjne. Traktujmy Description jak specyficzną formę reklamy serwisu, więc USP jest tu jak najbardziej na miejscu.
  1. Tekst dla ludzi

I ostatnie, najważniejsze – nie twórz tekstów pod wyszukiwarkę. Pamiętaj, że twoim celem jest sprowadzenie wartościowego ruchu, więc wykaż się odrobiną empatii, wciel się w rolę potencjalnego użytkownika i zastanów się, co tak naprawdę jest dla niego ważne.

Podstawą profesjonalnego i naturalnie wyglądającego tekstu SEO jest umieszczenie w nim kluczowych, niezbędnych słów. To one w dużej mierze mają wpływ na efekty podejmowanego pozycjonowania i to w słowach kluczowych tkwi największa moc contentu. Z pozoru łatwa koncepcja umieszczania odpowiednich fraz w tekście, okazuje się być problemem nie do przejścia, gdy umieścić należy nienaturalną lub długa frazę.

Przekona się o tym każdy, kto chociaż raz próbował umieścić w jednym tekście kilka identycznie brzmiących wyrazów. Oto moje sprawdzone triki na sytuacje „podbramkowe”, w których brakuje nam pomysłu lub sposobu na umieszczenie kluczowych słów.

Czym jest fraza lub słowo kluczowe?

Zanim jednak przejdziemy do sedna – słów parę o samych frazach dla osób niepracujących w branży SEO/SEM. Frazy / słowa kluczowe to najczęściej zbitki wyrazów (lub jeden wyraz), które wpisujemy w wyszukiwarce. Właściwe umieszczenie tychże haseł w tekście sponsorowanym (lub na stronie www) daje nam odpowiednią pozycję w wynikach oraz zwiększa szansę na zyskanie klienta.

Obecnie wyróżnić możemy kilka rodzajów takich fraz – mianowicie:

Słowa kluczowe w formie nagłówków

Często spotykanym i efektywnym pomysłem wykorzystywania słów kluczowych, jest ich umieszczanie w nagłówkach H1, H2, H3… Nawet najmniej poprawne językowo propozycje lub frazy typu long tail wyglądają dzięki temuumiarkowanie naturalnie. Co więcej, umieszczenie słów kluczowych w nagłówkach wzmacnia podejmowane działania z zakresu SEO, przyczyniając się do wzrostu pozycji w wynikach wyszukiwania. Uwaga - pamiętajmy, by podczas ich tworzenia zachować właściwą hierarchię.

Aby zrozumieć sposób umieszczania słów w taki sposób, posłużmy się przykładem. Wybierzmy zatem frazę: copywriter SEO wrocław. Na pierwszy rzut oka, umieszczenie tak nienaturalnie brzmiących zbitek słów, jest niezwykle trudne do umieszczenia w ciągu danej treści. Dlatego też, nagłówek z dopisanym dywizem („-„) brzmi i wygląda zdecydowanie lepiej i przejrzyściej dla czytelnika (np. „Copywriter SEO Wrocław – jego zadania i cele”). Możliwości tworzenia nagłówków w przedstawiony sposób są nieograniczone. Alternatywnie użyć możemy „– wycena tekstów”, „– poradnik tworzenia treści” i wielu, wielu innych.

Słowa kluczowe jako opisy grafik

Często, wiele treści tworzonych na stronę, otoczona jest (lub powinna być) grafikami lub wykresami z atrybutem „alt”. Poprawnie i merytorycznie stworzony tekst nie tylko odnosi się do tych danych w tekście, ale także opisuje wykres kilkuwyrazowym wyjaśnieniem. Najczęściej umieszczamy je pod zamieszczonymi zdjęciami. Niezwykle łatwym sposobem na umieszczenie frazy jest opisanie za jej pomocą grafiki, diagramu, badań, odnoszących się do poruszanego tematu. Idąc za ciosem powyższej propozycji, dobrym przykładem na jej zastosowywanie będzie „Copywriter SEO Wrocław – w 34% tworzenie tekstu uważane jest za istotne”.

Słowa kluczowe w odmianach

Kolejnym dobrym trikiem i sposobem na nienaturalne frazy jest stosowanie ich odmian. Oczywiście, dokładne powtórzenie jest najbardziej efektywne i pożądane, ale w sytuacji, która nie pozwala nam ich zastosować, nie bójmy się użyć frazy odmienionej przez przypadki. Tak umieszczone związki wyrazowe nie zostają odebrane jako „upchane”, a wyniki z zakresu SEO w większości przypadków nadal mogą się sukcesywnie poprawiać. Bardzo często w zaleceniach audytu znajdziemy wytyczne odnośnie tworzonego contentu. Oprócz fraz jeden-do-jednego, często propaguje się umieszczanie naturalnie brzmiących odmian. Dobrym przykładem będzie zastąpienie „Copywriter SEO Wrocław” na „Copywriter SEO we Wrocławiu”. Jakiś czas temu, na swoim blogu, Steven Baker przedstawił przypadek 50 fraz, w których synonimy realnie poprawiły wyniki. Tylko jedna fraza była na tyle źle odmieniona, że przyczyniła się do spadków (mamy zatem wynik na poziomie 98%). Analizując te wyniki, uwzględnijmy jednak fakt, iż na ten moment roboty wyszukiwarki interpretują synonimy w języku angielskim znacznie lepiej niż w języku polskim.

Słowa kluczowe jako ciąg tekstu

Najczęściej czytając dany tekst podchodzimy do niego holistycznie. Oznacza to, iż nie skupiamy wzroku na poszczególnych wyrazach, a na ciągu zdań i na charakterze, który dzięki temu oddaje. Frazy długie i trudne, dobrze zatem otaczać „normalnie” brzmiącymi zdaniami, tak, aby jego ostateczny odbiór był przejrzysty. Precyzyjnie i rozważne umieszczenie fraz w taki sposób skutkuje niezauważeniem np. nieodmienionego wyrazu. Wiele copywriterów idzie o krok na przód, specjalnie „pomijając” interpunkcje. W przypadku frazy „Copywriter SEO Wrocław” mamy do czynienia z 3 wyrazami, w jednym, nieprzerwanym ciągu. Niektórzy wykorzystują ten schemat, udając, iż słowo Wrocław jest początkiem kolejnego zdania, z pominięciem kropki po drugim wyrazie. Ja, personalnie, nie jestem zwolenniczką tego typu zabiegów, głównie poprzez propagowanie poprawności językowej i maksymalizacji przejrzystości tekstu.

Słowa kluczowe w formie pytań

Pytania zamieszczone w nagłówkach, tekstach, reportażach, artykułach sponsorowanych i treściach na stronę to najprostsza i wyjątkowo naturalna forma umieszczania słów kluczowych. To one dają łatwą możliwość przechodzenia do sedna tematu, a sam tekst nabiera „poradnikowego” i mocno informacyjnego charakteru. Pomocą w wyborze i umieszczeniu takich pytań może okazać się narzędzie zwane „Answer the public”. Wpisując w nim dane słowa kluczowe – w tym wypadku „teksty SEO” -  otrzymujemy ciąg zadawanych przez  użytkowników pytań,  oczywiście z użyciem wpisanej formy. Jednym z wyników jaki otrzymamy będzie pytanie ”Jak pisać teksty pod SEO?”, co w końcu jest idealnym wstępem do rozpoczęcia poradnika czy wartościowego merytorycznie tekstu (również tego z uwzględnieniem zasad SEO).

https://answerthepublic.com/

Podobne narzędziem daje nam Senuto, proponując tzw. Questions – Generator. Po wpisaniu frazy i rodzaju pytań, otrzymujemy wyniki, które posłużą nam za inspirację. A w przypadku tworzeniu contentu, to w inspiracjach tkwi istotny szczegół powodzenia pracy.

Duplikacja treści jest niepożądanym zjawiskiem, na które łatwo narazić swoją witrynę. Jej zwalczanie może okazać się czynnością wymagającą wysokich nakładów czasowych lub finansowych. Na szczęście w kilku prostych krokach możemy zdiagnozować nasz serwis pod kątem powielonych tekstów. Podobnie, zastosowanie kilku rozwiązań pomoże nam, przynajmniej częściowo, zapobiegać powstawaniu kopii i oszczędzić dodatkowej pracy. Jak okazuje się, diabeł nie zawsze tkwi w „zapożyczaniu treści” od konkurencyjnych serwisów. Często źródło problemu zlokalizowane jest w obrębie tylko naszej witryny i tym, na co jej pozwalamy.   W pierwszym artykule z cyklu „Jak wykrywać, eliminować i zapobiegać duplikacji treści?” zajmiemy się podejściem Google do duplikacji treści, rozróżnieniem duplikatów zewnętrznych oraz wewnętrznych, a także przedstawimy najczęstsze zachowania i elementy będące przyczyną opisywanego w artykule zjawiska.  

Co Google sądzi na temat Twoich duplikatów?

„Temat rzeka” i to na sam początek, gdyż duplikat duplikatowi nierówny. Najłatwiej przyjąć, że Google nie przepada za powielaniem treści i słusznym rozwiązaniem będzie maksymalne unikanie kopiowania contentu w obrębie witryny oraz kategoryczne niedopuszczanie do zapożyczania treści z innych witryn, chyba że mówimy o dozwolonym cytowaniu (z tym bardzo ostrożnie). Musimy wiedzieć, że Google zdaje sobie sprawę z faktu, że nie każda kopia jest efektem działania celowego, mającego na celu manipulowanie wynikami wyszukiwania o czym przeczytasz we wskazówkach dotyczących treści Google. Google nie stawia sobie za cel ukaranie Twojej witryny za każdy przejaw kopii. Nie mniej jednak, zakłada, że zadbasz o unikalną treść i będziesz w stanie zapanować nad porządkiem w swoim serwisie, zapobiegając na przykład duplikacji tych samych podstron. Jednocześnie musisz zdawać sobie sprawę z tego, że rażące naruszenia dotyczące powielania treści mogą negatywnie wpływać na pozycje, na jakich uplasuje się Twoja witryna. Może zdarzyć się również, że kopiowany tekst po prostu nie przyniesie pozytywnego efektu (Google promuje unikalny content).  

Duplikaty zewnętrzne i duplikaty wewnętrzne

Duplikaty w najprostszym rozróżnieniu dzielimy na duplikaty zewnętrzne i wewnętrzne. Duplikacją zewnętrzną nazywamy powielanie treści w obrębie dwóch lub większej liczby witryn. Na myśl od razu przychodzi, niestety wszechobecne, „podbieranie” treści od konkurencyjnych serwisów / producentów - zjawisko popularne zwłaszcza w e-commerce, gdzie kopiowanie opisów w kartach produktowych nie jest niczym nadzwyczajnym. Podobnie często możemy spotkać się z powielaniem treści całych podstron, zwłaszcza w niektórych branżach. Dla eksperymentu możemy na przykład sprawdzić unikalność treści w witrynie naszego stomatologa czy też mechanika. Pomimo, że mógł poświęcić wiele godzin na stworzenie profesjonalnych tekstów, pewnego dnia konkurent wstawia je w obrębie własnej witryny. Wkrótce jest ich 50 - duplikaty lubią pójść w świat! Musimy zdawać sobie sprawę z tego, że nie każda duplikacja zewnętrzna to kradzież. Właściciele witryn często nie są świadomi faktu, że kopiowanie tekstów w obrębie kilku domen własnych również jest duplikacją. Do wątpliwych należy również cytowanie fragmentów treści. O ile robisz to tak jak robi to Wikipedia - streszczasz powołując się na źródła, cytujesz dosłownie krótki fragment (1-2 zdania) otoczony pokaźną ilością unikalnej, dopracowanej treści, nie masz powodów do zmartwień. Czasem bez tego po prostu się nie obędzie. Jeśli kopiujesz obszerny blok tekstu lub Twoja podstrona jest zlepkiem cytowanych fragmentów, nieoferujących użytkownikowi żadnej wartości dodanej, sprawa nie wygląda już tak dobrze.   Duplikacja wewnętrzna, w odróżnieniu od zewnętrznej, dotyczy stricte powielenia treści w obrębie Twojej witryny. Mowa nie tylko o celowym skopiowaniu podstrony czy też bloku tekstu. Wewnętrzne powielanie potrafi wynikać z problemów dotyczących optymalizacji technicznej. Dlatego też Google daje wiarę, że nie każdy duplikat wewnętrzny jest efektem celowego działania i nie każdy przejaw duplikacji zostanie ukarany. Problemy optymalizacyjne nie są jednak wystarczającym usprawiedliwieniem dla rażącego występowania opisywanego zjawiska. Masowe generowanie URL paginacji czy indeksacja parametrów sesji zdecydowanie nie należy do zdrowych. Jeśli problem dotyka Twojej witryny, nawet jeżeli nie odczułeś negatywnych skutków, posprzątaj w swoim serwisie czym prędzej. Jak to się popularnie mówi, nie znasz dnia ani godziny. 🙂

Co wolno, a czego nie wolno?

O ile duplikacja zewnętrzna nie jest wyjątkowo obszernym tematem (Chociaż kiedy to nam kradzione są teksty, sytuacja jest nieco bardziej skomplikowana) i wystarczy zastosować się do kilku reguł, duplikacja wewnętrzna w zasadzie mogłaby być tematem na cykl artykułów, zwłaszcza jeśli szeroko opisalibyśmy sposoby rozwiązywania poszczególnych jej przejawów.   Jeśli chodzi o duplikację zewnętrzną zdecydowanie niepożądane jest:   Do wątpliwych należy również:   Problemu nie stanowi:   W temacie duplikacji wewnętrznej, im bardziej funkcjonalny serwis, tym generalnie trudniej. Pole do powstawania duplikatów wewnętrznych staje się coraz większe wraz ze wzrostem jego złożoności. Nie sposób wymienić wszystkie przyczyny powielenia. Do najczęściej spotykanych należą:   Warto zadbać również o nieindeksowanie podstron takich jak regulaminy, polityki prywatności. Osobiście wątpię, aby witryna została ukarana za indeksowanie polityki prywatności łudząco podobnej do innych w sieci. Ale po co indeksować politykę prywatności?   Gniewu Google nie powinny budzić:  

Podsumowanie

  Jak widać, granica między istnieniem duplikacji, a jej brakiem, potrafi być cienka. Dlatego za wszelką cenę powinniśmy minimalizować ryzyko zaklasyfikowania treści w obrębie naszej witryny jako bliźniaczej. Zjawisko duplikacji często jest bagatelizowane przez osoby zarządzające witryną. Pamiętajmy, że nasz serwis ocenia na co dzień nie zespół ekspertów, a algorytm Google, który potrafi okazać się niedoskonały. Tym samym, znajdziemy w sieci mnóstwo przykładów witryn, które „jakoś (lub świetnie) sobie radzą”, pomimo ogromnej ilości duplikatów, a także przypadki  negatywnych konsekwencji za dość umiarkowane przewinienia. Jednak, zgodnie z myślą, że „lepiej zapobiegać, niż leczyć”, warto zadbać o wykluczenie maksymalnej liczby potencjalnych problemów, za które Google, w pewien kapryśny dzień, zainterweniuje i odwróci trend rosnący liczby użytkowników czytających treść Twojej witryny.   W kolejnej części omówione zostaną dwa podstawowe narzędzia do analizy duplikacji zewnętrznej oraz wewnętrznej, dzięki którym możemy natychmiast przeanalizować naszą witrynę pod kątem występowania duplikatów. Część trzecia dotyczyć będzie szerszego omówienia rozwiązań dla wymienionych już elementów, które mogą powodować powielanie treści w obrębie Twojej strony.

W styczniu Google zapowiedziało wdrożenie tzw. Speed Update – aktualizacji algorytmu, która zwiększy znaczenie szybkości ładowania stron dla pozycji w wynikach wyszukiwania. To doskonała okazja do sprawdzenia stopnia optymalizacji naszych witryn pod kątem tego parametru. Jednocześnie, warto zastanowić się, gdzie znajduje się punkt, do poziomu którego walka o szybsze ładowanie witryny okaże się koniecznością, a powyżej którego, jest już tylko „sportem”.


Speed Update i związany z nim nowy czynnik rankingowy

Zapowiedziana niedawno aktualizacja algorytmu „Speed Update”, według Google, zostanie wprowadzona w lipcu 2018 roku. W związku z nią większego znaczenia nabierze szybkość ładowania strony. Jego celem jest zwiększenie komfortu przeglądania stron internetowych na urządzeniach mobilnych  , poprzez obniżenie pozycji witryn, które wczytują się najdłużej. Nowy element algorytmu nie wpłynie na wyniki desktopowe (Tych pilnuje aktualizacja z 2010 roku).

Google w komunikacie wspomina, że efekty w postaci spadków w wynikach wyszukiwania dotkną jedynie witryny o skrajnie wydłużonym czasie ładowania. Taka informacja powinna zatem uspokoić większość właścicieli serwisów. Tym bardziej, że Google przewiduje także wyjątki – będą nimi powolne serwisy zawierające content bardzo wysokiej jakości.

Dla spokojnego sumienia rzućmy jednak okiem, co o szybkości naszej witryny mówi narzędzie Google PageSpeed Insights. Tam również czeka na nas niespodzianka, dotycząca odświeżonego wyglądu oraz rozwiniętego mechanizmu funkcjonowania.

Co nowego znajdziemy w Google PageSpeed Insights?

PageSpeed Insights (https://developers.google.com/speed/pagespeed/insights/?hl=pl) to narzędzie Google, które za zadanie ma nam pomóc zbadać i dostosować optymalizację witryny by ładowała się sprawnie, niezależnie od wykorzystywanego urządzenia.

Faktycznie, po wpisaniu adresu naszego serwisu, w ciągu kilkunastu sekund otrzymamy raport, a w nim, uwaga, cztery (a nie jak dotąd dwie) oceny witryny.

Co zmieniło się we wspomnianym narzędziu? Wszystkie dotychczasowe jego elementy pozostały w pierwotnej postaci. Wyniki podzielone są zatem na: „Na komórki”  oraz „Na komputery”. Zarówno w pierwszej, jak i w drugiej kategorii, znajdziemy wynik „Optymalizacja”, który dotąd był jedyną oceną prezentowaną na skali przez PageSpeed Insights. W obecnej wersji, naszym  oczom ukazuje się również nowe pole wyniku: „Szybkość działania strony”, dla wyników mobilnych, jak i desktopowych. Niestety, w obecnym momencie, wiele mniejszych witryn nie pozna jeszcze rezultatu pomiaru szybkości ładowania strony. Co wtedy? Google sugeruje użycie takiego narzędzia, jak Lighthouse  , które możemy zainstalować jako wtyczka do Google Chrome. Oczywiście, ocena optymalizacji dostępna będzie w Google’owskim PageSpeed Insights w dalszym ciągu. Pozostaje pytanie - na ile ten wynik jest miarodajny? O tym w następnym akapicie.

Lighthouse - Zrzut ekranu

Lighthouse to rozszerzenie dla Google Chrome pozwalające na dokonanie nie tylko pomiarów szybkości działania witryny, ale także uzyskanie dodatkowych wskazówek optymalizacyjnych, między innymi pod kątem SEO.

Jak PageSpeed Insights ocenia Twoją stronę?

Po pierwsze, a zarazem najbardziej oczywiste i już wspomniane, wyniki podzielone są na rezultaty dla urządzeń mobilnych oraz komputerów. Dla danego rodzaju urządzenia docelowego, możemy dokonać interpretacji szybkości ładowania strony oraz optymalizacji.

„Szybkość ładowania strony”, nowy wymiar oceny witryny wprowadzony do PageSpeed Insights, z założenia powinien być silnie skorelowany z tym, czego oczekuje od nas Google w związku z lipcową aktualizacją algorytmu. Wspomniana szybkość określana jest w wartościach FCP (First Contentful Paint) oraz DCL (DOMContentLoaded) – te skróty i nazwy mają prawo przerazić niewtajemniczonego webmastera. Możemy jednak wyjaśnić je nieco prostszymi słowami:

Czas na szczęście mierzony jest w sekundach! 😊


PageSpeed Insights – jak interpretować wynik testu?

Do jakiego wyniku powinniśmy dążyć i jaki wynik powinien usatysfakcjonować Google w lipcu 2018 roku? Przeformułujmy to pytanie. Zastanówmy się jaki czas zadowoli użytkownika odwiedzającego nasz serwis, już teraz. Zasadniczo, starajmy się, aby czas ładowania był jak najkrótszy i jednocześnie pozwalał na stabilne działanie witryny oraz jej wszystkich funkcji. Użytkownik zyskuje dzięki temu większy komfort przeglądania naszej strony, a my mamy szansę zmniejszyć współczynnik odrzuceń. Zyskujemy układ wygrany – wygrany.

PageSpeed pomoże nam określić szybkość działania strony pokazując zinterpretowany zbiorczy wynik FCP i DCL na skali, przyporządkowany do jednej z trzech tercji, określających odpowiednio niski, średni i bardzo dobry wynik pomiaru.

Spójrzmy na przykładowe rezultaty dla urządzeń mobilnych:

PageSpeed Insights - zrzut ekranu

W tym przykładzie szybkość działania strony została określona jako średnia. Poniżej podane są również wartości FCP i DCL. Czy taki wynik powinien wymagać interwencji z naszej strony? Z punktu widzenia nadchodzącego update’u – nie. Gniew nadchodzącej aktualizacji dotknie tylko serwisów borykających  się z bardzo dużymi opóźnieniami w ładowaniu.

Użytkownik, czy robot – dla kogo optymalizować szybkość ładowania się   strony

Skoro roboty Google nie stawiają przed nami ogromnych wymagań odnośnie szybkości ładowania to może postaramy się o jej poprawę dla korzyści użytkownika? O ile serwis nie ma rzeczywistych problemów utrudniających szybkie poruszanie się po nim, nasza decyzja. Jeśli mamy w zanadrzu niewykorzystane sposoby na optymalizację czasu ładowania, zdecydowanie je wykorzystajmy. Po optymalizacji oczywiście sprawdźmy, czy serwis działa stabilnie. Jeśli dotrzemy do granicy, powyżej której w zamian za niezauważalny efekt płacimy problemami z funkcjonowaniem witryny, odpuśćmy. Porównałbym to do podkręcania procesora. O ile pokaźne zwiększenie jego taktowania dzięki kilku stosunkowo nieskomplikowanym krokom pozwoli nam zyskać wyraźny wzrost mocy obliczeniowej, tak walka o ostatnie 10 megaherców, może okazać się żmudna i przepłacona katorżniczą walką o stabilność działania systemu.  Jakikolwiek wynik zauważalny będzie tylko w raporcie z testu. W skrócie, bez sensu, chyba, że naszą pasją są sporty ekstremalne.

Jak efektywnie skrócić czas ładowania strony?

Znamy już wynik testu. Załóżmy, że nie jesteśmy nim usatysfakcjonowani. Od czego powinniśmy zacząć optymalizację? Sposobów jest wiele. Zadanie okaże się najprostsze, kiedy nasza witryna funkcjonuje na najpopularniejszych CMSach, takich jak WordPress. Istnieje dla nich mnóstwo wtyczek  , które pomogą nam w optymalizacji szybkości działania naszej strony.  Na początek możemy zastosować się do wskazówek prezentowanych przez PageSpeed Insights… Z pewną ostrożnością. Dla przykładu, narzędzie Google, po usprawnieniu polegającym na minimalizacji   kodu HTML, JS czy CSS, z pewnością zaproponuje nam dalsze pomniejszanie już wcześniej   zminifikowanych plików. Po włączeniu cache’owania naszego serwisu, wśród wskazówek wciąż ujrzymy propozycję skorzystania z pamięci podręcznej, tym razem dla skryptu śledzącego Google Analytics. Dlatego najlepszym rozwiązaniem będzie sprawdzenie punkt po punkcie czy proponowane przez test rozwiązania zostały wcześniej wdrożone w naszym serwisie. Jeśli tak, punkt możemy odhaczyć i przejść dalej, niezależnie od tego czy Google sugeruje nam jego dalsze usprawnianie lub nie.

Poniżej przedstawione zostało kilka pomysłów na optymalizację czasu ładowania witryny:

Minifikacja kodu

Wspomniana już minifikacja kodu polega na optymalizacji HTML, JavaScript  oraz CSS. Jej efektem jest redukcja rozmiaru plików. W przypadku minifikacji, warto skorzystać z dostępnych dla naszego CMS wtyczek optymalizujących.

Dla WordPressa warto wspomnieć o WP Fastest Cache, W3 Total Cache czy też WP Super Cache. Zwróciłbym uwagę również na wtyczkę Autoptimize. Choć nie jest tak często wspominana w rankingach najlepszych pluginów, w przypadku optymalizacji stron jednego z klientów okazało się, że uzyskaliśmy dzięki niej najlepszy i stabilny efekt, podczas gdy inne powodowały problemy z działaniem serwisu.

Możemy również pobrać pliki zoptymalizowane przez Google, przygotowane do ściągnięcia w raporcie Google PageSpeed Insights. Niestety, nie jest to stuprocentowo skutecznym rozwiązaniem. Po umieszczeniu zminifikowanych plików na serwerze, może zdarzyć się sytuacja, w której zauważymy objawy niestabilnego działania witryny lub… W ogóle jej nie zobaczymy! Pamiętajmy zatem o kopii zapasowej przed każdą większą ingerencją w pliki serwera. W ten sposób otrzymujemy prawie pełne zabezpieczenie w sytuacji, w której po modyfikacjach  okazuje się, że nasza strona przypomina krajobraz Księżyca.

Pamięć podręczna

Wykorzystanie pamięci podręcznej to kolejny sposób na zwiększenie komfortu korzystania ze strony przez użytkownika. Cache’owanie zawartości  polega na zapisywaniu wygenerowanego dokumentu HTML w zasobach serwera. Tym samym, odwiedzający użytkownik będzie mógł szybciej zapoznać się z zawartością witryn, gdyż ta nie będzie generowana ponownie, a wczytana zostanie jej ostatnia postać z pamięci podręcznej. W cache’owaniu zasobów w WordPressie pomogą nam te same wtyczki, które wymieniliśmy w akapicie dotyczącym minimalizacji kodu – WP Fastest Cache, W3 Total Cache oraz WP Super Cache.

Optymalizacja grafiki

Zoptymalizujmy również grafikę. Pliki graficzne o zbyt dużym rozmiarze zdecydowanie opóźniają załadowanie zawartości. Możemy w tym celu skorzystać z gotowej wtyczki do WordPressa, która automatycznie zoptymalizuje każdy plik (Np. WP Smush) lub skorzystać z internetowych narzędzi, takich jak TinyPNG (https://tinypng.com/). Teoretycznie, pomoże nam w tym również PageSpeed Insights. W raporcie w paczce zoptymalizowanych plików możemy znaleźć również pliki graficzne. Niestety, jakość zredukowanej grafiki może pozostawiać wiele do życzenia. W tej kwestii stawiamy na inne pluginy / programy.

Dobry hosting to podstawa!

Serwer, na którym funkcjonuje witryna, powinien przede wszystkim: działać (Częste błędy po stronie serwera w SEO mogą okazać się niewybaczalne)! Po drugie, działać sprawnie i szybko. Z pomocą narzędzi testujących szybkość działania witryny koniecznie zbadajmy czas odpowiedzi serwera i odpowiedź DNS. Hostingi w zupełnie przeciętnej cenie zaoferują nam czas odpowiedzi poniżej sekundy. Zdarzały się sytuacje, w których obserwowaliśmy u nowych klientów opóźnienie przedziału 3 sekund (Rekord: ponad siedem sekund, średnio co 2-3 test!). Od czasów pogrzebywania modemów 56 kbps, takie sytuacje, wyjąwszy pojedyncze awarie, są zdecydowanie niedopuszczalne.

Inne narzędzia do testowania szybkości działania witryny

PageSpeed Insights to nie jedyny tester, którym sprawdzimy jak szybko ładuje się nasza strona.

Warto również przeprowadzić darmowe testy narzędziami GTmetrix oraz Pingdom Website Speed Test, z których pozyskamy kolejne listy wskazówek.

GTMetrix

GTMetrix to narzędzie pozwalające  dokonać, za darmo, szczegółowego audytu wydajności witryny. Jego interfejs, w mojej opinii, jest bardzo przejrzysty i nie powinien sprawić kłopotów nawet świeżo upieczonemu administratorowi strony WWW. Podobnie jak w PageSpeed Insights, jedyną czynnością jaką należy wykonać w celu przeprowadzenia testu, jest wpisanie adresu URL domeny, którą chcemy analizować.

Atutem GTMetrixa, w mojej opinii, jest jego szczegółowość, pomimo której, raport pozostaje zrozumiały nie tylko dla ekspertów. Wyniki pomiarów określone są na skali 0-100 i składają się na ogólne podsumowanie punktowe witryny (użyteczne dla uzyskania generalnego obrazu szybkości działania serwisu), jak i ocenę punktowa dla poszczególnych składowych wydajności, takich jak kompresja gzip, wykorzystanie pamięci podręcznej czy minifikacja HTML/CSS/JS.

Narzędzie GTMetrix znajdziemy pod adresem: https://gtmetrix.com/

GTMetrix - Zrzut ekranu

Okno rezultatów testu  narzędzia GTMetrix

Pingdom Website Speed Test

Pingdom Website Speed Test to kolejna propozycja, którą możemy wykorzystać do zmierzania szybkości ładowania się witryny. Aby wykonać test, podobnie jak w przypadku GTMetrix oraz Google PageSpeed Insights, wystarczy wpisać adres URL interesującej nas strony i kliknąć przycisk „Start Test”. W zasadzie, raport zawiera podobne elementy do pozostałych narzędzi wspomnianych w tym artykule. W mojej opinii, bardziej dociekliwy webmaster, powinien zwrócić uwagę na czas ładowania poszczególnych plików wymaganych do wyświetlenia danej strony. Pozwoli to na wykrycie ewentualnych „wąskich gardeł” serwisu.

Narzędzie Pingdom do testowania szybkości ładowania witryny znajdziemy pod adresem: https://tools.pingdom.com/

Pingdom - Zrzut ekranu

Interfejs okna wyników narzędzia Pingdom

Pingdom - Zrzut ekranu 2

Okno narzędzia Pingdom prezentujące czas ładowania poszczególnych plików wymaganych do poprawnego wyświetlenia zawartości strony


Które narzędzie wykorzystać?

Choć wszystkie trzy wymienione w tym artykule narzędzia prezentują dość podobne rezultaty, każde z nich zawiera w sobie coś unikalnego i prezentuje wyniki w nieco odmienny sposób. Dlatego warto wypróbować je wszystkie. Pozwoli to na uzyskanie kompletnego raportu dotyczącego szybkości ładowania strony internetowej oraz wylistowanie wszelkich niezbędnych edycji w celu usprawnienia wydajności naszego serwisu.

W ramach podsumowania, warto przypomnieć, że Speed Update nie będzie żadną rewolucją, a przynajmniej tak wynika ze stanowiska Google. Mamy do czynienia z aktualizacją dla urządzeń mobilnych, zbliżoną do tej z 2010 roku, która dotyczyła obniżania pozycji najwolniejszych witryny w desktopowych wynikach wyszukiwania. De facto, od lipca obie aktualizacje będą działały równolegle, niezależnie od siebie.

Choć kara nie grozi większości z nas, wykorzystajmy fakt aktualnej popularności tematu szybkości działania by przyjrzeć się potencjalnym sposobom na jej poprawienie. Przede wszystkim dla użytkownika, który z pewnością doceni możliwość komfortowego przeglądania naszej strony.

Nie jest ważne, czy jesteś właścicielem salonu kosmetycznego, gabinetu dentystycznego, czy prowadzisz urokliwą kawiarenkę na obrzeżach miasta, gwarantuję, że możesz stać się liderem branży w swoim regionie.

Jak przyciągnąć klientów i wprowadzić swój lokalny biznes w konkurencyjny świat wyników wyszukiwania Google? Pokazuję i objaśniam!


Dobór słów kluczowych

Jeśli prowadzisz lokalny biznes i chcesz się wypromować zrób to z głową. Twój gabinet stomatologiczny, czy salon kosmetyczny nie musi podbijać całej Polski, bo przecież potencjalny klient to mieszkaniec Twojego miasta i okolicy. Nie trać budżetu ani czasu na promowanie się w internecie na skalę krajową. Wystarczy że skupisz się tylko na swoim regionie.

Zanim dobierzesz słowa kluczowe, dla których chciałbyś pojawiać się w wynikach wyszukiwania zbadaj ich konkurencyjność i średnią ilość miesięcznych wyszukiwań. Możesz to zrobić za pomocą narzędzia Google Keyword Planner lub SENUTO, gdzie możesz odwołać się do sekcji “baza słów kluczowych”. Taka analiza pomoże Ci w wytypowaniu odpowiednich fraz, pisząc odpowiednich mam tu na myśli takich, które nie są zbyt ogólne i mocno konkurencyjne. Jeśli wybierzesz zbyt ogólne frazy, np. gabinet stomatologiczny, gabinet kosmetyczny możesz mieć trudności w dostaniu się do słynnej TOP dziesiątki, a jeśli uda Ci się to osiągnąć, to wzrost klientów, a co za tym idzie Twoich zarobków może być niewspółmierny do kosztów jakie włożyłeś w działania pozycjonowania na te frazy kluczowe.

Załóżmy, że masz gabinet stomatologiczny we Wrocławiu. Zobacz ile wyników wyszukiwania uzyskasz wpisując „gabinet stomatologiczny”, a ile wyników wyświetli się po wpisaniu frazy „gabinet stomatologiczny Wrocław”. Jest różnica?

gabinet dentystyczny

Wyniki wyszukiwania Google

wyniki-wyszukiwnania-wrocław

Wyniki wyszukiwania Google

Wpisując “gabinet stomatologiczny” w wyszukiwarkę, otrzymasz 3 170 000 wyników, zawężając słowo kluczowe do lokalizacji uzyskasz o 2 764 000 mniej wyników.

Wniosek: Jeśli prowadzisz lokalny biznes nie konkuruj ze wszystkimi w Polsce i skup się na swoim mieście.

Opracowanie własne

Opracowanie własne


Pozycjonowanie lokalne – optymalizacja strony internetowej

Dobrze, wybrałeś słowa kluczowe - brawo! Pora na kolejny etap - optymalizacja strony internetowej pod kątem lokalnych słów kluczowych.

Meta Title

Ważne jest, aby tytuły wyraźnie wskazywały rodzaj oferowanej przez Ciebie usługi, lokalizację i markę. Jeśli chodzi o dobre praktyki ich tworzenia, to chciałbym tutaj przytoczyć podstawowe zasady, których należy przestrzegać. Tytuły muszą być unikalne, powinny też nawiązywać do zawartości podstrony i zawierać słowa kluczowe. Do stworzenia tytułu możesz wykorzystać około 65 znaków. Jeśli przekroczysz limit, nic złego się nie stanie, po prostu tytuł wtedy nie wyświetli się w całości w wynikach wyszukiwania. Jeśli chcesz dowiedzieć się więcej o optymalizacji (nie tylko tytułów) polecam świetny artykuł Katarzyny Baranowskiej. No dobrze, jak to wygląda w praktyce? Przyjmijmy, że jesteś stomatologiem i masz gabinet stomatologiczny we Wrocławiu. Tytułu jaki powinieneś zastosować to połączenie słowa kluczowego opisującego Twoją działalność + lokalizacja + nazwa firmy:

Uwaga! Nie spamuj, tytuł to zrozumiałe zdanie, a nie ciąg słów kluczowych 🙂

Meta Description

Meta description nie jest czynnikiem rankingowym natomiast świetnie się sprawdza w roli call to action, więc również należy zadbać o jego optymalizację pod kątem pozycjonowania lokalnego. Tworząc opis należy pamiętać o jego unikalności, zastosowaniu słów kluczowych i podkreśleniu lokalizacji. Jak to zrobić?

Uwaga! Pamiętaj, że meta description również ma ograniczenia, do wykorzystania zostaje około 150 znaków.

Nagłówki

Nagłówki są czynnikiem rankingowym, więc trzeba skupić na nich szczególną uwagę. Nagłówki na podstronach muszą być unikalne, zawierać słowa kluczowe i (jeśli to możliwe) lokalizację, np.

Optymalizacja URL - i

Zoptymalizowany URL pod kątem pozycjonowania lokalnego stanowi kluczową rolę, dlatego powinien być czytelny, zawierać słowo kluczowe i lokalizację. Nawet jeśli Twoja działalność nie opiera się tylko na Wrocławiu - nic nie szkodzi! Zaprojektuj Landing Page na wszystkie Twoje lokalizacje np.

W ten sposób każda podstrona będzie mieć swój tytuł, nagłówki, description i treści związane z konkretną lokalizacją.

Schema.org

Dzięki zastosowaniu znaczników schema.org wskażesz wyszukiwarce informacje na temat dokładnej lokalizacji Twojej firmy. Przykładowy kod, który możesz wykorzystać znajdziesz poniżej:

<script type="application/ld+json">
{
"@context" : "http://schema.org",
"@type" : "LocalBusiness",
"image" : "https://domena.pl/wp-content/themes/as2026/images/logo.png",
"name" : "Gabinet Stomatologiczny we Wrocławiu - Jan Kowalski",
"url" : "https://domena.pl/",
"logo": "https://domena.pl/wp-content/themes/as2026/images/logo.png",
"description": "Jan Kowalski - Gabinet stomatologiczny we Wrocławiu korzysta z wysokiej jakości materiałów oraz nowoczesnego sprzętu.",
"address": {
"@type" : "PostalAddress",
"streetAddress": "ul. Tadeusza Zielińskiego 31/6",
"addressLocality": "Wrocław",
"addressRegion": "Dolnośląskie",
"postalCode": "53-534",
"telephone" : "48 666 666 666"
},
"openingHours": [ "Mo-Fr 09:00-17:00" ],
"hasmap" : "https://www.google.com/maps/place/Gabinet+Stomaologiczny+Wroclaw+-+Stomatolog+Jan+Kwalski/@53.524515,12.5414043,17z/data=!4m1!4b1!4m4!4m4!1s0x0:0x600e95e3aff05de8!8m2!3d53.429555!4d14.543298?hl=pl",
"sameAs" : [ "https://www.facebook.com/gabinet-stomatologiczny-wroclaw/",
"https://plus.google.com/a/1/c/132918110666946104985/111978110666946104985" ]
},

"areaServed": {
"@type": "City",
"name": "Wrocław"
},
</script>

Po zamianie danych (oczywiście te powyższe to dane testowe) możesz sprawdzić poprawność kodu w Narzędziu do testowania uporządkowanych danych Google.

google

Narzędzie do testowania uporządkowanych danych

Obrazy

Nie zapomnij o obrazach, które przecież pojawiają się na każdej stronie internetowej, zwłaszcza jeśli prowadzisz biznes lokalny, gabinet stomatologiczny, czy salon fryzjerski, na pewno chcesz żeby Twoi klienci wiedzieli jak wygląda miejsce, w którym oferujesz swoje usługi. Dlatego obrazy również powinny być zoptymalizowane. Chodzi tutaj głównie o ich opisy, czyli atrybut alt tekst.

Dodając zdjęcia do swojej strony internetowej skorzystaj z możliwości jaką daje ten znacznik. Opis może składać się ze słowa kluczowego i lokalizacji, np.

Stopka

Jeśli firma działa tylko w jednym mieście, warto na każdej z podstron umieścić w stopce takie informacje jak:

Optymalizacja treści pod kątem pozycjonowania lokalnego

Nie ma co ukrywać, treści są najważniejszym elementem każdej strony internetowej, dlatego podczas ich tworzenia i optymalizacji należy pamiętać o użyciu słów kluczowych, nazwy firmy i lokalizacji. Najważniejsze jest również to, aby treści były unikalne. Należy pamiętać o umiarze, zdecydowanie zawartość strony nie może być przeładowana słowami kluczowymi.

Responsywność strony

Coraz więcej użytkowników korzysta ze smartfonów i tabletów szukając lokalnych usług bądź chcąc dotrzeć do jakiegoś miejsca, szukają danych teleadresowych. Warto jest więc zadbać o to, aby strona internetowa była responsywna i czytelna na wszystkich urządzeniach mobilnych.

Zakładka kontakt

Zakładka kontaktowa jest bardzo istotna i powinna zawierać aktualne dane takie jak adres, numer telefonu, godziny otwarcia oraz mapkę. W przypadku, kiedy lokalizacji jest więcej niż jedna, mapkę oraz dane teleadresowe można dodać również do podstron z lokalizacją.

Google Moja Firma

Google Moja firma pozwala na wyświetlenie profilu lokalnych firm w wyszukiwarce oraz w mapach. Google jest niesamowitym źródłem wiedzy i z precyzją zbiera dane z różnych źródeł, dlatego bardzo możliwe, że prowadząc działalność lokalną, nawet jeśli sam nie założyłeś profilu na Google Moja Firma, to domyślnie zrobiło to za Ciebie Google. Spokojnie, nic w tym złego. Nie musisz zakładać nowego profilu, wystarczy go przejąć, korzystając z funkcji “Zarządzaj tą stroną” i postępować zgodnie z dalszymi wskazówkami.

Google Moja firma jest nie tylko doskonałą wizytówką wyświetlaną w lokalnych wynikach wyszukiwania i mapach Google, ale również okazją do budowania zaufania wśród użytkowników i potencjalnych klientów. Jak doskonale wiesz (lub nie wiesz 🙂 ) Google daje możliwość dodawania ocen i opinii Twojej firmy, przez klientów.

google moja firma

Wyniki wyszukiwania Google Moja Firma

Kolejną zaletą posiadania profilu Google Moja Firma jest dostęp do statystyk, które można monitorować. Dzięki temu mamy możliwość analizowania i sprawdzania danych o wyświetleniach wizytówki:

raport-google-moja-firma

Raport miesięczny Google Moja Firma

Można też sprawdzić, gdzie klienci widzą firmę, czy są to wizytówki w wyszukiwarce, czy w mapach. Bardzo ciekawą rzeczą jest możliwość analizy działań klientów związanych z wizytówką, możemy sprawdzić ile było wejść na stronę internetową z wizytówki, ile zapytań o trasę dojazdu,  a ile połączeń telefonicznych.

raprt-google-moja-firma

Raport miesięczny Google Moja Firma

Przy zakładaniu profilu Google Moja firma należy pamiętać, aby w pełni wykorzystać jej potencjał. Dane w profilu muszą być aktualne. Kategorie, to szczególnie ważny element i należy wybrać wszystkie, które pasują do typu Twojej firmy. Godziny otwarcia to również bardzo istotna kwestia, dlatego nie należy jej pomijać.


Do kogo skierowane jest pozycjonowanie lokalne

Pozycjonowanie lokalne skierowane jest przede wszystkim do właścicieli firm, którzy fizycznie prowadzą swoją działalność w danym mieście. Do naszej agencji bardzo często zgłaszają się właściciele restauracji, lekarze, radcy prawni, czy inni przedsiębiorcy świadczący swoje usługi w konkretnym regionie.

Zalety pozycjonowania lokalnego

Po przeczytaniu tego artykułu możesz pomyśleć, że pozycjonowanie lokalne w zasadzie nie różni się od ogólnego. W obu strategiach stosowane są te same narzędzia i techniki. Jednak jest jeden czynnik, który przekona nawet najbardziej opornych - pieniądze! Tak jest, w większości przypadków pozycjonowanie lokalne jest po prostu mniej kosztowne. Zdarzają się “ambitni” klienci, którzy chcą się pozycjonować na ogólną frazę, np. “dentysta”, “kawiarnia”, wkładają w działania mnóstwo pieniędzy, które po prostu się nie zwracają.

Kolejną zaletą pozycjonowania lokalnego jest mniejsza konkurencja. Tak jak wspominałam, mając kawiarnię we Wrocławiu konkurujesz z innymi w tym regionie, a nie z całym krajem.

Nie tylko oszczędność finansowa i mniejsza konkurencja jest zaletą - jest nią również czas. Zdecydowanie łatwiej jest osiągnąć wysoką widoczność dla fraz lokalnych, niż dla tych ogólnych.

Błędy w danych strukturalnych

Google poprzez Google Search Console sygnalizuje ponad setkę podstron zawierających błędy odnoszące się do danych strukturalnych (znaczniki: schema.org). Link do błędów i wskazania problemów można znaleźć w sekcji Stan w wyszukiwarce à Dane strukturalne. Taki stan rzeczy może uniemożliwić poprawne wyświetlanie fragmentów rozszerzonych w wynikach wyszukiwania.

Zalecamy poprawienie sygnalizowanych nieprawidłowości. Odnoszą się one głównie do braku zdefiniowania takich elementów na nazwa (parametr „name”) oraz skala ocen (wskazanie najniższej i najwyższej).

dane strukturalne - błędy w GSC

Dostosowanie stron sklepu do wyświetlania się na urządzeniach mobilnych

Po zalogowaniu się w Google Search Console, sekcja Ruch związany z wyszukiwaniem à Obsługa na urządzeniach mobilnych można łatwo sprawdzić czy sygnalizowane są problemy z wyświetlaniem się stron na wspomnianych urządzeniach. Na ten moment narzędzie nie sygnalizuje nieprawidłowości.

W przyszłości, w przypadku wprowadzania większych zmian zalecamy ponownie wykonać test zgodności z urządzeniami mobilnymi.

obsługa na urządzeniach mobilnych

Drugim narzędziem, które umożliwia sprawdzenie tego, czy strony wyświetlają się bez błędów np. na telefonach komórkowych jest test optymalizacji mobilnej - https://search.google.com/search-console/mobile-friendly.

test optymalizacji mobilnej

Zalecamy regularne testowanie wskazań nie tylko dla strony głównej, ale również dla kategorii, kart produktów i innych, losowo wybranych podstron.


Grafika

Roboty wyszukiwarki Google nie potrafią w sposób taki, jak realny użytkownik, rozpoznać tego, co znajduje się na obrazach. W związku z tym, aby zwiększyć szansę na wyświetlenie się np. zdjęć produktów w wynikach wyszukiwania Grafiki należy odpowiednio zoptymalizować obrazy. Znaczenie ma tutaj m.in. otoczenie tekstowe grafiki (tematyka), nazwa pliku i atrybuty odnoszące się do grafiki.

Kluczowym elementem jest uzupełnienie atrybut alt dla każdego zdjęcia (grafiki) w sklepie.

Aktualnie np. zdjęcia produktów posiadają prawidłowo zoptymalizowany ten element, jednak nazwa pliku (ze względu na brak słów kluczowych czy innych sensownych fraz nie będzie stanowiła wartości dodanej i pozytywnie rankowała).

Dla przykładu, grafika odnosząca się do wina o nazwie „Byrne Shiraz” (https://projektwino.pl/environment/cache/images/0_300_productGfx_5eb6d48ee3c666309dbad1de0ba6d566.jpg) ma dobrze zoptymalizowany alt, ale plik występuje pod nazwą „0_300_productGfx_5eb6d48ee3c666309dbad1de0ba6d566.jpg”, która „nie powie” nic ani użytkownikowi, ani robotom wyszukiwarki Google.

atrybut alt

W odniesieniu do logotypu proponujemy rozszerzenie zawartości atrybutu alt, aby zwiększyć rankowanie dla ważnych słów kluczowych. Dla przykładu:

<img src="/skins/user/rwd_shoper_2/images/logo.png" alt="projektwino.pl – profesjonalny sklep z winem" />

envelopephone-handset linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram