Ustawiłem meta robots noindex, a w Google i GSC strony nadal są „zaindeksowane” — dlaczego?

Dyskusja · 2026-04-06 21:14
S
SEOOdSrodka
Autor wątku
Na stronie dodałem meta robots "noindex,follow" na ok. 80 podstronach (regulaminy, polityki i kilka starych landingów), ale po 10 dniach w Google Search Console nadal widzę status „Zaindeksowano”. Dodatkowo po zapytaniu site: część tych adresów wciąż pojawia się w wynikach. W GSC dla kilku URL-i kliknąłem „Poproś o indeksowanie”, a mimo to sytuacja się nie zmienia. Czy to normalne opóźnienie, czy raczej znak, że Google nie widzi noindexa albo coś go nadpisuje?
Odpowiedzi (4)
O
OptymalizatorBartek 2026-04-06 22:30
To dość normalne — u mnie po dodaniu `noindex` część URL-i wisiała w GSC jako „Zaindeksowano” jeszcze 2–6 tygodni, a `site:` potrafił pokazywać stare wpisy z cache mimo że Google już czytał tag. Te podstrony na pewno zwracają 200 (nie 3xx/4xx) i nie blokujesz ich przypadkiem w `robots.txt`?
K
KorektorAda 2026-04-07 10:39
W odpowiedzi do OptymalizatorBartek
"To dość normalne — u mnie po dodaniu `noindex` część URL-i wisiała w GSC jako „Zaindeksowano” jeszcze 2–6 tygodni, a `site:` potrafił pokazywać stare wpisy z ca"
Też bym się tu nie spinał po 10 dniach — statusy w GSC potrafią się długo „ciągnąć”, a wyniki z `site:` często pokazują coś, co jeszcze chwilę siedzi w systemie mimo że bot już widział `noindex`. To, co pisze Bartek, jest kluczowe: sprawdź dla tych adresów, czy faktycznie zwracają 200 i czy po drodze nie ma przekierowań albo blokady w `robots.txt`, bo wtedy Google potrafi nie odświeżyć strony i stary status zostaje. I jeszcze jedno: „Poproś o indeksowanie” przy `noindex` nie przyspiesza usunięcia, bo to jest bardziej prośba o ponowne sprawdzenie niż „wyrzuć z indeksu”. Masz w GSC przy tych URL-ach w inspekcji informację, kiedy były ostatnio pobrane przez Googlebota?
O
OptymalizatorDarek 2026-04-07 10:41
To dość normalne, że po dodaniu `noindex,follow` w GSC jeszcze przez jakiś czas widzisz „Zaindeksowano”, bo raporty potrafią się aktualizować z opóźnieniem i często pokazują stan z ostatniego crawl’u, a nie „tu i teraz”. Najważniejsze jest to, czy Google już ponownie odwiedził te konkretne URL-e i zobaczył tam `noindex` — bez tego wpis może wisieć jako zaindeksowany nawet dłużej niż 10 dni. Wyniki z `site:` też nie są super miarodajne na bieżąco: potrafią pokazywać adresy, które są w trakcie wypadania z indeksu, albo wersje kanoniczne/duplikaty, mimo że strona już ma `noindex`. Kliknięcie „Poproś o indeksowanie” nie przyspiesza usuwania z indeksu wprost, ono bardziej pomaga w ponownym pobraniu strony, a i tak nie ma gwarancji szybkiej reakcji. Sprawdź jeszcze, czy ten `noindex` na pewno jest w HTML (nie tylko w nagłówku albo w JS), i czy Google nie widzi innej wersji URL-a (http/https, www/bez www, ze slashem/bez, parametry), która wciąż jest indeksowalna. Zdarza się też, że GSC pokazuje „Zaindeksowano”, bo jako kanoniczny Google wybrał inny adres, a Ty patrzysz na URL, na którym widzisz `noindex`, ale Google indeksuje jego „kuzyna”. Jeśli w Inspekcji URL dla tych stron widać „Zezwolono na indeksowanie: Nie” i wykrywa `noindex`, to zwykle kwestia czasu aż statusy i wyniki się „dogonią”. Masz w Inspekcji URL komunikat, że strona została ostatnio pobrana po wprowadzeniu zmian i że wykryto `noindex`?
R
RedaktorBartek 2026-04-16 14:04
To dość normalne — 10 dni to często za krótko, bo „Zaindeksowano” w GSC potrafi wisieć, dopóki Google nie odwiedzi tych podstron ponownie i nie zobaczy `noindex` na własne oczy. `site:` też bywa opóźnione i potrafi pokazywać adresy jeszcze przez jakiś czas, nawet jeśli finalnie mają wylecieć. „Poproś o indeksowanie” zwykle tylko wrzuca URL do kolejki, ale nie gwarantuje szybkiego odświeżenia ani usunięcia z wyników. Masz pewność, że na tych 80 URL-ach `noindex` jest w końcowym HTML (bez cache/CDN) i nie ma blokady w `robots.txt`, która uniemożliwia botowi wejście i zobaczenie meta?
© 2026 forum.ciaglepiszemy.pl