Autor: Ewelina Podrez

Jak uniknąć duplikacji treści pomiędzy wersją mobilną i desktopową strony?

Po aktualizacji algorytmu mobilnej wersji wyszukiwarki Google, potrzeba posiadania strony dostosowanej do urządzenia, z którego korzysta użytkownik, stała się oczywistą. Niejednokrotnie jednak implementacja wersji mobilnej wiąże się z szeregiem problemów związanych ze sposobem zarządzania adresami podstron w taki sposób, aby uniknąć duplikacji treści. Poniżej przedstawiamy metody na jej uniknięcie. Informacja dla wyszukiwarki Google nie preferuje konkretnych formatów adresów dla wersji na urządzenia mobilne. Na potrzeby wpisu założymy, że wersja komputerowa znajduje się pod adresem przyklad.pl, natomiast jej mobilny odpowiednik pod m.przyklad.pl. Aby prawidłowo wskazać analogiczne adresy wyszukiwarce, należy zastosować dwie poniższe metody: 1. Rel=”alternate” – wersja desktop W wersji dostosowanej do...

Czytaj Więcej

Roboty Google indeksują linki szybciej, niż do tej pory

Gary Illyes potwierdził wczoraj (31.07.2015) na Twitterze, że od tego momentu roboty wyszukiwarki mają większe możliwości jeśli chodzi o indeksowanie linków przychodzących do serwisu. Zgodnie z informacją od Gary’ego, zmiany związane są z rozbudową infrastruktury serwerów wyszukiwarki i dotyczą wszystkich jej wersji, również polskiej. Do tej pory czas indeksacji linków przez roboty wyszukiwarki pozostawiał wiele do życzenia. Bez sztucznego “wsparcia” Googlebotów, mógł on wynosić nawet 6 miesięcy. To stanowczo za dużo, zwłaszcza gdy w grę wchodzą nowe domeny i serwisy o mniejszym zasięgu. Czy zmiany przysłużą się Webmasterom oraz pozycjonerom? W teorii tak, ale szybsza indeksacja może wiązać się również z całkowitą...

Czytaj Więcej

Googlebot nie może uzyskać dostępu do plików CSS i JS – co dalej po komunikacie Search Console?

28 lipca w Google Search Console (Webmaster Tools) pojawiły się nowe komunikaty dotyczące braku dostępności plików JavaScript i CSS (arkusze styli) dla robotów Google. Wiadomości te skierowane są do właścicieli/webmasterów witryn, które w pliku robots.txt zawierają zapisy przypominające poniższe: Disallow: /js/ Disallow: /css/ lub Disallow: .css Disallow: .js W przypadku popularnych systemów zarządzania treścią, pliki CSS i JS znajdują się głównie w katalogu “includes”, stąd błędy mogą generować również poniższe komendy w robots.txt: WordPress Disallow: /wp-includes/ Joomla Disallow: /includes/ Blokady plików *.css i *.js, niegdyś będące popularnym rozwiązaniem, mającym na celu przyspieszenie czasu ładowania się strony dla Googlebotów, dziś...

Czytaj Więcej

Zmiany w wyszukiwarce mobilnej – Publikacja

21 kwietnia 2015 roku Google wprowadziło aktualizację mobilnej wersji swojej wyszukiwarki. Jest to dopiero pierwsza z wielu zaplanowanych zmian, mających na celu dostosowanie wyników wyszukiwania na smartfonach i tabletach w taki sposób, aby strony nieresponsywne i nieposiadające wersji “mobile” zniknęły z wysokich pozycji.

Czytaj Więcej