Miesiąc: Sierpień 2015

Problemy z raportowaniem ilości zaindeksowanych podstron w Search Console

Jak donosi Gary Illyes, w Google Search Console pojawiły się problemy z raportowaniem ilości zaindeksowanych przez wyszukiwarkę podstron.  Tym samym ilości podane w sekcji “Mapy witryn” i ogromne dysproporcje pomiędzy ilością podstron zaindeksowanych, a tych ujętych w xmlowej mapie strony, nie muszą być powodem do zmartwień. Z moich obserwacji wynika, że duża część różnic (choć nie wszystkie) wynika z omawianego błędu. Dla przykładu ilość zaindeksowanych podstron serwisu z powyższej grafiki zbliża się do 1500, podczas gdy Search Console wskazuje jedynie 723. Jak sprawdzić ilość zaindeksowanych podstron? Do momentu naprawy błędu w Search Console, w badaniu ilości zaindeksowanych podstron pomogą nam: zapytanie site:nazwadomeny.pl do wyszukiwarki...

Czytaj Więcej

Jak uniknąć duplikacji treści pomiędzy wersją mobilną i desktopową strony?

Po aktualizacji algorytmu mobilnej wersji wyszukiwarki Google, potrzeba posiadania strony dostosowanej do urządzenia, z którego korzysta użytkownik, stała się oczywistą. Niejednokrotnie jednak implementacja wersji mobilnej wiąże się z szeregiem problemów związanych ze sposobem zarządzania adresami podstron w taki sposób, aby uniknąć duplikacji treści. Poniżej przedstawiamy metody na jej uniknięcie. Informacja dla wyszukiwarki Google nie preferuje konkretnych formatów adresów dla wersji na urządzenia mobilne. Na potrzeby wpisu założymy, że wersja komputerowa znajduje się pod adresem przyklad.pl, natomiast jej mobilny odpowiednik pod m.przyklad.pl. Aby prawidłowo wskazać analogiczne adresy wyszukiwarce, należy zastosować dwie poniższe metody: 1. Rel=”alternate” – wersja desktop W wersji dostosowanej do...

Czytaj Więcej

Roboty Google indeksują linki szybciej, niż do tej pory

Gary Illyes potwierdził wczoraj (31.07.2015) na Twitterze, że od tego momentu roboty wyszukiwarki mają większe możliwości jeśli chodzi o indeksowanie linków przychodzących do serwisu. Zgodnie z informacją od Gary’ego, zmiany związane są z rozbudową infrastruktury serwerów wyszukiwarki i dotyczą wszystkich jej wersji, również polskiej. Do tej pory czas indeksacji linków przez roboty wyszukiwarki pozostawiał wiele do życzenia. Bez sztucznego “wsparcia” Googlebotów, mógł on wynosić nawet 6 miesięcy. To stanowczo za dużo, zwłaszcza gdy w grę wchodzą nowe domeny i serwisy o mniejszym zasięgu. Czy zmiany przysłużą się Webmasterom oraz pozycjonerom? W teorii tak, ale szybsza indeksacja może wiązać się również z całkowitą...

Czytaj Więcej