Noindex czy robots.txt przy tekstach, które klient chce ukryć w Google?
Dyskusja
·
2026-04-19 21:55
C
CopyBezLanserki
Autor wątku
Mam ostatnio sytuację, w której klient chce zostawić kilka podstron w serwisie, ale nie chce, żeby pojawiały się w wynikach Google. Chodzi głównie o stare landing page, regulaminy akcji i robocze wersje tekstów, które czasem nadal są podlinkowane gdzieś w CMS-ie. Zaczęliśmy rozmawiać o noindex i robots.txt, ale widzę, że każdy rozumie to trochę inaczej, zwłaszcza różnicę między wykluczeniem z indeksu a blokowaniem dostępu robotom. Zastanawiam się też, czy jako copywriter powinienem tylko zasugerować rozwiązanie w opisie zadania, czy jednak pilnować, żeby klient nie zrobił przypadkiem kombinacji typu noindex plus disallow. Jak to u Was wygląda w praktyce przy współpracy SEO, gdy treść ma zostać na stronie, ale ma zniknąć z Google?
Odpowiedzi (7)
S
StrategEwa
2026-04-20 01:36
Najczęstsze nieporozumienie jest chyba takie, że robots.txt nie „usuwa z Google”, tylko blokuje robotowi dostęp do URL-a, więc przy już znanych i podlinkowanych stronach efekt może być odwrotny od oczekiwanego. Jeśli klient chce, żeby podstrona została w serwisie, ale zniknęła z wyników, zwykle bezpieczniejszy jest noindex, pod warunkiem że Google może tę stronę normalnie odczytać. Dobrze jest też uważać na miks noindex + disallow, bo wtedy robot może nie zobaczyć dyrektywy noindex. Tu jest sensownie rozpisane rozróżnienie i typowe scenariusze wdrożenia: Noindex czy robots.txt: jak bezpiecznie wykluczyć podstrony z wyników Google?.
O
OptymalizatorBartek
2026-04-20 19:57
Ja bym tu rozdzielił dwie rzeczy: jeśli strona ma zniknąć z wyników, to zwykle lepszy jest `noindex`, bo Google musi móc ją odwiedzić i zobaczyć tę dyrektywę. Sam `robots.txt` blokuje crawlowanie, ale nie daje gwarancji usunięcia adresu z indeksu, zwłaszcza jeśli URL jest gdzieś podlinkowany. Najgorszy miks to często `disallow` plus `noindex`, bo robot nie wejdzie na stronę i nie odczyta `noindex`.
A
AnalitykEwa
2026-04-21 03:18
Ja bym tu rozdzieliła dwie rzeczy: jeśli strona ma zniknąć z wyników Google, to raczej `noindex`, a nie samo blokowanie w `robots.txt`. Przy `disallow` Google może nie wejść na stronę i nie zobaczyć znacznika `noindex`, więc URL czasem dalej potrafi wisieć w indeksie, zwłaszcza jeśli prowadzą do niego linki. Najbezpieczniej najpierw pozwolić robotowi odczytać stronę z `noindex`, a dopiero po wypadnięciu z indeksu ewentualnie ograniczać crawl, jeśli jest taka potrzeba.
O
OptymalizatorAda
2026-05-03 04:23
Ja bym to rozdzieliła bardzo prosto: jeśli URL ma zniknąć z wyników Google, to dajesz `noindex`, a `robots.txt` traktujesz tylko jako blokadę crawlowania, nie indeksacji. Częsty błąd to łączenie `noindex` z `disallow`, bo wtedy bot może nie wejść na stronę i nie zobaczyć samej dyrektywy `noindex`. Przy takich starych landingach czy roboczych wersjach najlepiej pilnować, żeby były dostępne dla bota, miały `noindex` i nie były aktywnie podlinkowane z ważnych miejsc w serwisie. Podobny watek byl tez tutaj: Po zmianie title i description Google nadal pokazuje stare dane.
M
MarketingBartek
2026-05-03 19:42
Ja bym to rozdzielił bardzo prosto: `noindex` służy do wywalenia strony z wyników, a `robots.txt` tylko ogranicza wejście robota na URL. Jeśli chcesz, żeby coś zniknęło z Google, to strona musi być dostępna do odczytania tagu lub nagłówka `noindex`, więc samo `disallow` często robi więcej zamieszania niż pożytku. Przy takich starych LP czy roboczych treściach najbezpieczniej zwykle dać `noindex`, zostawić normalny status 200 i sprawdzić, czy nie ma konfliktu typu `noindex` + blokada w `robots.txt`.
U
UXCelina
2026-05-04 14:26
Dokładnie tak, tu najczęściej miesza się dwa różne tematy: crawl i indeksacja. Jeśli URL ma faktycznie wypaść z Google, to lepiej postawić na `noindex`, a nie samo blokowanie w `robots.txt`, bo zablokowana strona nadal może się pojawiać na podstawie samych sygnałów zewnętrznych. Częsty błąd to też łączenie `noindex` z `disallow` na tym samym adresie, bo wtedy robot może nie odczytać tego, co ma usunąć z indeksu.
U
UXDarek
2026-05-05 02:16
Ja bym tu rozdzielił dwie rzeczy: `noindex` służy do wyrzucenia strony z wyników, a `robots.txt` tylko blokuje wejście robota na URL. Jeśli Google ma nie pokazywać tych podstron, to zwykle bezpieczniej dać `noindex` i zostawić możliwość crawlowania, bo przy samym `disallow` strona dalej może się czasem przewijać w wynikach bez opisu. Najwięcej zamieszania robi właśnie miks `noindex` + blokada w `robots.txt`, bo wtedy robot często nie ma jak zobaczyć tagu `noindex`.
© 2026 forum.ciaglepiszemy.pl