W 2009 roku Google rekomendowało indeksowanie stron opartych o AJAX, jako sposób na udostępnienie treści generowanych dynamicznie nie tylko użytkownikom strony, ale również robotom wyszukiwarki. Po przemówieniu Gary'ego Illyesa podczas SMX East 2015, pojawiły się plotki o zaprzestaniu wspierania tej technologii. Od 14 października 2015 roku, już oficjalnie, Google wycofuje się ze swoich rekomendacji sprzed 6 lat (link).
Zgodnie z W3 Schools, AJAX jest marzeniem każdego webdewelopera ze względu na możliwość:
W skrócie oznacza to, że technologia AJAX pozwala na dynamiczne generowanie treści, bez przeładowywania całej strony.
Od 2009 roku znacznie wzrósł stopień zaawansowania robotów Google. W tym momencie, o ile pliki JS nie są zablokowane dla robotów wyszukiwarki, Google rozumie je równie dobrze, jak nowoczesne przeglądarki stron. Nie bez znaczenia zapewne jest fakt, że Alphabet, od niedawna spółka-matka Google, w swoim portfelu projektów ma również popularną przeglądarkę Chrome i z powodzeniem mogła wykorzystywać mechanizmy przeglądarki w udoskonalaniu pracy robotów wyszukiwarki.
Google nadal będzie indeksować AJAX, ale sugeruje stopniowe zaprzestanie stosowania metod zgodnych z ich pierwszymi rekomendacjami.
Oznacza to, że:
5 października 2015 Google poinformowało na swoim blogu o rozpoczęciu walki ze spamem w wynikach wyszukiwania. Zmiany mają dotyczyć ok. 5% zapytań, w zależności od języka wyszukiwania. Garry Illyes z Google potwierdził, że w celują one w tzw. "spammy queries", czyli dotyczą m.in. zapytań związanych z branżą pornograficzną, czy nielegalnymi lekami.
W najbliższym czasie, w algorytmie wyszukiwarki wprowadzony zostanie szereg zmian, które uderzą pośrednio w strony próbujące za pomocą ataków hakerskich wpłynąć na swoją pozycję w wynikach wyszukiwania. W pierwszej kolejności ucierpią jednak strony zhakowane, które zostaną wycięte z wyników wyszukiwania.
Google uczula webmasterów na zabezpieczenie strony przed atakami. Nie da się ukryć, że najbardziej zagrożone są strony oparte o popularne systemy CMS, takie jak WordPress, czy Joomla. Już wcześniej Google informowało w komunikatach do właścicieli witryn o dostępności nowych wersji CMSów, natomiast 6 października zostały wypuszczone nowe komunikaty dotyczące ataków hakerskich.
Aby ograniczyć ryzyko zainfekowania strony do minimum, konieczna jest dbałość o:
Zgodnie z wytycznymi Google należy:
https://www.google.com/safebrowsing/diagnostic?site=www.example.com
, gdziewww.example.com
musisz zastąpić adresem URL własnej witryny;
Penguin to jeden z algorytmów Google, odpowiedzialny za ocenę witryny na podstawie czynników off-site, czyli prowadzących do niej backlinków. Algorytm ten został wdrożony w kwietniu 2012 roku, całkowicie zmieniając podejście specjalistów do tematu pozycjonowania stron i do tej pory doczekał się aż 10 aktualizacji. To właśnie ten algorytm jest najczęściej odpowiedzialny za nałożenie kary filtra na stronę.
Jak donosi Search Engine Land, Gary Illyes przekazał na konferencji SMX East, że w najbliższej przyszłości będzie miała miejsce kolejna aktualizacja algorytmu Penguin. Nowa wersja ma działać w czasie rzeczywistym, a Gary wyraził nadzieję, że zmiany zostaną wdrożone jeszcze przed końcem 2015 roku. Informację tę kilka dni wcześniej potwierdził również John Mueller na jednym z hangoutów.
Na dzień 12.02, nadal nie został wdrożona najnowsza aktualizacja algorytmu. Google nie podaje dalszych informacji o terminie wdrożenia.
1 Gary Illyes, Webmaster Trends Analyst z Google w Szwajcarii, od czasu przedłużającego się urlopu Matta Cuttsa, jest obok Johna Muellera osobą kontaktową pomiędzy Google, a Webmasterami.
Na jego Twitterze pojawiają się informacje dotyczące bieżących zmian w algorytmie Google, nowych funkcjonalności i komunikatów w Search Console.
Fox Strategy sp. z o.o.
8971837880
ul. Piłsudskiego 23 lok. 2-4
50-044 Wrocław