Sobota 13 sierpnia 2022
Logo stowarzyszenia SEO

Obniżona częstotliwość indeksowania

Obniżona częstotliwość indeksowania

Obserwując grupy poświęcone SEO, widać w ostatnim czasie zapytania dotyczące braku indeksowania nowych podstron. Nie mylić tego z informacją dotyczącą problemów z indeksowaniem z jednego z poprzednich artykułów.


Brak indeksowania ?


W ostatnim czasie (na przestrzeni 2miesięcy), coraz rzadziej wysyłane są roboty sieciowe Google wcelu indeksowania podstron. Efekt jest taki że pomimo wprowadzeniazmian w kodzie strony czy też architekturze witryny, zmiany wwyszukiwarce są widoczne dopiero po dłuższym czasie oczekiwanialiczonym w tygodniach. W ostatnim czasie opublikowaliśmy podobnyartykuł „Problemy z indeksowaniem podstron”, jednakproszę nie mylić tych dwóch artykułów ze sobą. Ten problem jestcałkiem inny mimo że dotyka tego samego problemu.




Jaki jest powód braku indeksowania?


Władze wyszukiwarki Google zpotwierdziły w jednym z wpisów na swoim blogu że taka praktyka mamiejsce. Chodzi o zmniejszenie potrzebnej mocy obliczeniowej doobsługi pracy robotów Google. Stron internetowych przybywalawinowo. Każdego dnia są publikowane nowe witryny na całymświecie, a przy obecnej częstotliwości skanowania stroninternetowych przy pomocy robotów sieciowych firma Google byłazmuszana do stałego zwiększania mocy obliczeniowej. Należypamiętać że roboty sieciowe skanują również już istniejącestrony internetowe w poszukiwaniu zmian i nowych treści. Dlatego teżfirma Google była wręcz zmuszona stale zwiększać potencjał mocyobliczeniowej do sprawnej obsługi wszystkich działających robotówsieciowych.




Pracownicy firmy Google, wykonali audytdziałań robotów sieciowych, w rezultacie tego badania udało sięustalić że ponad 60 % witryn internetowych jest tak rzadkoaktualizowana że aby zaoszczędzić na nowych serwerach i nadalwydajnie zbierać informacje wystarczy manipulować częstotliwościąodwiedzania starych rzadko aktualizowanych adresów WWW.




Należy też pamiętać że istnieją winternecie takie portale WWW które muszą być odwiedzane nawet co30 sekund, to z uwagi na tak częste aktualizowanie witryny iartykułów na niej zamieszczonych.




Google chcąc obniżyć koniecznośćmontowania nowych serwerów w celu obsługi wszystkich działańrobotów sieciowych, na podstawie zrobionej analizy, wprowadza nowyalgorytm częstotliwości indeksowania stron internetowych, oparty odane historyczne. To oznacza że jeśli Twoja strona była rzadkoaktualizowana to roboty sieciowe będą zaglądać na ten adres zmniejszą częstotliwością.




Jakie są tego konsekwencje ?


Niestety nie jest to dobra wiadomość.Do tej pory, osoby i firmy zajmujące się pozycjonowaniem mogłyutrzymywać dużą ilość witryn w celu budowania na nich zaplecza.Takie strony internetowe były bardzo rzadko aktualizowane. Ale przystarych zasadach indeksowania, można było na nich wprowadzićzmiany i maksymalnie po 3 dniach był widoczny efekt. Teraz takiedziałania będą miały bardziej utrudnione mierzenie swojejskuteczności. Przy obniżonej częstotliwości indeksowania, niebędzie wiadomo które zmiany wpłynęły pozytywnie a którenegatywnie na pozycjonowaną stronę internetową.