Skocz do zawartości

Google indeksuje strony blokowane przez robots.txt


casser

Rekomendowane odpowiedzi

Witam, mam następujący problem i nie wiem jak go rozwiązać:

W narzędziach dla webmasterów jest informacja, że zaindeksowanych jest 280 stron, spośród 310 wpisanych do sitemap.xml, więc jest całkiem nieźle.

Niestety w wynikach wyszukiwania jest masa moich podstron, które są zablokowane przez plik robots.txt. Robię ich testy w narzędziach dla webmasterów i dostaję informację, że dana strona jest zablokowana przez plik robots.txt, więc niby jest ok

Niestety liczba tych niechcianych podstron cały czas rośnie (było 500, jest 1200) i nie wiem już co mogę z tym zrobić. Czy jest to "normalne" działanie google, czy może gdzieś robię błąd?

adres: stronka

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

To normalne. Też miałem podobny problem.

Google zaindeksowało niepotrzebne strony, dlatego zablokowałem je w robots.txt. Nic to jednak nie dało, a site nadal rósł. Postanowiłem usunąć niepotrzebne strony w GWT. Dostałem pozytywny wynik, że strony zostały usunięte, ale zanim rzeczywiście zniknęły z indeksu, minęły może 2 miesiące, więc chyba trzeba czekać :puknijsie:

Moje skromne przemyślenia na temat pozycjonowania próbuję przedstawiać na blogu -> https://blog.karlosky.pl
Osoby zainteresowane współpracą w zakresie SEO zapraszam na stronę www.topmaker.pl oraz https://pozycjonowanie-bialystok.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności