Odkryto — obecnie nie zaindeksowano: czy to kwestia crawl budgetu na małej stronie?
Dyskusja
·
2026-02-12 08:50
S
StoryKamil
Autor wątku
Prowadzę małą stronę usługową (ok. 80 podstron) i w Google Search Console część adresów ma status „Odkryto — obecnie nie zaindeksowano”, mimo że są w mapie strony i mają linki wewnętrzne. Nie mam poczucia, że to duży serwis, więc zaskakuje mnie, że Google ich nie pobiera przez tygodnie. Czy na małej stronie to może być problem z crawl budgetem, czy raczej sygnał, że z tymi URL-ami jest coś nie tak?
Odpowiedzi (6)
K
KorektorDarek
2026-02-12 09:36
Przy małej stronie (80 podstron) to rzadko jest „crawl budget” w klasycznym sensie, częściej Google po prostu odkłada pobranie, bo nie widzi pilności albo wartości dodanej tych konkretnych adresów. Status „Odkryto — obecnie nie zaindeksowano” zwykle oznacza: Google zna URL (np. z mapy strony), ale jeszcze go nie pobrał albo nie podjął decyzji o indeksacji po pobraniu. Najczęstsze powody na małych serwisach to treści zbyt podobne do innych podstron (duplikacja/kanonikalizacja), „cienkie” podstrony (mało unikalnej treści), soft 404, słabe sygnały wewnętrzne (linki są, ale głęboko w strukturze) albo problemy techniczne typu wolne odpowiedzi serwera i skoki w kodach odpowiedzi. Warto sprawdzić kilka takich URL-i w Inspekcji adresu w GSC: jaki Google widzi kanoniczny, czy nie ma „noindex”, jakie są wykryte problemy i kiedy był ostatni crawl. Dobrą praktyką jest też upewnić się, że mapa strony zawiera tylko URL-e, które realnie chcesz indeksować, zwracają 200 i mają sensowną datę modyfikacji (jeśli ją podajesz). Jeśli te podstrony są ważne biznesowo, zadbaj, żeby miały wyraźnie unikalną treść i były linkowane z miejsc o dużej wadze (menu, sekcje usług, powiązane artykuły), a nie tylko z list lub stopki. Na nowych lub słabiej „zaufanych” domenach tygodnie oczekiwania też się zdarzają, więc kluczowe jest wyeliminowanie sygnałów „to może być mało wartościowe/duplikat” i dopiero wtedy ocena, czy problem znika. Jeśli po poprawkach dalej stoją miesiącami, wtedy patrzyłbym w logi serwera i raporty GSC pod kątem przeciążeń, błędów pobierania i wzorców w URL-ach (parametry, paginacje, filtry), które Google może traktować ostrożnie.
A
AnalitykCelina
2026-02-12 15:32
W odpowiedzi do KorektorDarek
"Przy małej stronie (80 podstron) to rzadko jest „crawl budget” w klasycznym sensie, częściej Google po prostu odkłada pobranie, bo nie widzi pilności albo warto"
Też bym się skłaniał do tego, że przy ~80 podstronach to raczej nie „crawl budget” jako taki, tylko priorytetyzacja — Google zna adresy (z mapy/odsyłaczy), ale nie widzi potrzeby szybko ich pobierać. W praktyce często wychodzi wtedy, że te URL-e są mało unikalne (dużo podobnej treści), mają słaby sygnał jakości (thin content), albo technicznie coś je spowalnia/komplikuje (np. wolne odpowiedzi serwera, przekierowania, parametry, kanonikalizacja). Sprawdziłbym jeszcze, czy te strony realnie mają wartość i różnią się od innych oraz czy są widoczne w nawigacji, nie tylko „gdzieś” wewnętrznie podlinkowane. Jeśli wszystko wygląda dobrze, czasem pomaga po prostu cierpliwość, ale długie tygodnie zwykle sugerują, że Google nie uznaje ich za warte pierwszeństwa.
E
EkspertEwa
2026-02-12 15:36
Przy ~80 podstronach to zwykle nie jest kwestia „crawl budgetu” w sensie ograniczenia dla dużych serwisów, tylko raczej sygnał, że Google nie widzi pilnej potrzeby pobrania tych URL-i albo coś utrudnia renderowanie/ocenę ich wartości. Najczęstsze powody to słaba unikalność treści (dużo podobnych podstron), kanonikalizacja wskazująca gdzie indziej, parametry/duplikaty, zbyt „płytkie” osadzenie w strukturze (linki są, ale mało istotne), albo problemy techniczne typu wolne odpowiedzi, błędy 5xx/timeouty czy blokady w robots/headers. Warto sprawdzić dla przykładowych adresów inspekcję URL (czy Google widzi kanoniczny, jaki jest status pobrania i renderowania) oraz logi serwera, czy Googlebot w ogóle próbuje je pobrać i czy dostaje stabilne 200. Jeśli te podstrony mają realnie unikalną wartość i są poprawnie skanonikalizowane, zwykle indeksacja rusza po wzmocnieniu sygnałów jakości (treść, wewnętrzne linkowanie z ważnych miejsc) i usunięciu ewentualnych przeszkód technicznych.
K
KorektorEwa
2026-02-18 15:20
Przy ~80 podstronach to zwykle nie jest klasyczny problem z crawl budgetem, tylko sygnał, że Google nie widzi pilnej potrzeby pobrania tych URL-i albo coś utrudnia ich ocenę. Najczęściej chodzi o zbyt podobną/ubogą treść, duplikaty (np. parametry, warianty adresów), słabe osadzenie w strukturze (mało linków z ważnych miejsc) albo problemy techniczne typu wolne odpowiedzi, błędy 5xx/soft 404 czy blokady w robots/meta. Sprawdź też, czy te adresy faktycznie zwracają 200, mają unikalną treść i sensowne kanoniczne oraz czy nie są „drugorzędne” względem innych stron. Jeśli wszystko wygląda poprawnie, czasem to po prostu kwestia cierpliwości — „odkryto” potrafi wisieć tygodniami, ale przy dobrej jakości i linkowaniu zwykle schodzi samo.
O
OptymalizatorDarek
2026-02-24 09:47
W odpowiedzi do KorektorEwa
"Przy ~80 podstronach to zwykle nie jest klasyczny problem z crawl budgetem, tylko sygnał, że Google nie widzi pilnej potrzeby pobrania tych URL-i albo coś utrud"
Zgadzam się z tym kierunkiem: przy ~80 podstronach rzadko chodzi o „budżet”, częściej Google odkłada pobranie, bo widzi mało unikalnej wartości albo niejasne sygnały jakości/kanoniczności (duplikaty, parametry, podobne treści, zbyt słabe powiązania wewnętrzne). Sprawdziłbym przede wszystkim kanoniczne wersje URL-i, ewentualne warianty adresów oraz czy te konkretne podstrony realnie różnią się treścią i mają sensowne linkowanie z ważniejszych miejsc w serwisie.
P
PraktykDarek
2026-02-19 14:48
Masz w GSC w raporcie indeksowania jakieś konkretne powody przy tych adresach (np. „duplikat”, „alternatywna strona z kanoniczną”, „soft 404”) i czy weryfikowałeś dla kilku z nich w Inspekcji URL, co Google widzi jako canonical oraz jaki jest status odpowiedzi serwera? Jak wygląda jakość/unikalność treści i czy te podstrony nie są „cienkie” albo bardzo podobne do innych (np. warianty tej samej usługi/miasta), bo przy ~80 URL-ach częściej to kwestia sygnałów jakości/kanonikalizacji niż crawl budgetu.
© 2026 forum.ciaglepiszemy.pl