Skocz do zawartości

Blokowanie strony za pomocą robots.txt


michalowsky

Rekomendowane odpowiedzi

Witam wszystkich,

Mam takie pytanie do doświadczonych kolegów. Chciałbym, by nie indeksowała mi się pewna podstrona mojej strony internetowej. Przeczytałem, że można to wykonać za pomocą robots.txt i tak też zrobiłem. W Narzędziach dla Webmasterów dodałem nową wersję pliku i sprawdziłem czy jest widoczna przez GoogleBot'a, pokazało mi się pięknie - ZABLOKOWANA.

A teraz moje pytanie: Kiedy mogę liczyć, że Google usunie stronę wykluczoną w robots.txt z serpów?

W tym momencie jak wyżej NDW pokazuje, że jest zablokowana, ale nadal jest zindeksowana w google. Zależy mi na jak najszybszym wyrzuceniu jej z serpów, co mógłbym zrobić by to przyspieszyć?

Teraz rzucił mi się taki pomysł, czy mógłbym zmienić "przyjazny" adres tej podstrony i dodać nowy do robots.txt. W takim przypadku stary by wyrzucał 404, a nowy by się nie zindeksował?

Z góry dziękuję za pomoc

Pozdrawiam,

BM

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności