Skocz do zawartości

zablokowanie podstron przy użyciu robots.txt


przemo83

Rekomendowane odpowiedzi

Chcę zablokować niechciane podstrony za pomocą robots.txt, które wyświetlają się obecnie w wynikach wyszukiwania.

Czy wg was dobrze to zrobiłem? Czy coś dodać jeszcze?

User-Agent: *

Disallow: /www.nazwastrony.pl/?start=5&el_mcal_month=2&el_mcal_year=2027

Disallow: /www.www.nazwastrony.pl/start=5&el_mcal_month=5&el_mcal_year=1998

Disallow: /www.nazwastrony.pl/?start=5&el_mcal_month=6&el_mcal_year=1998

Disallow: /www.nazwastrony.pl/start=5&el_mcal_month=12&el_mcal_year=1998

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zgłoszeniem w GWT wyindeksujesz je w ciągu kilku godzin. Tylko musisz pamiętać, że blokada w robots.txt nie powoduje wyindeksowania tylko blokadę dostępu dla robotów. Te strony nadal mogą być wyświetlane w Google, ale bez jakichkolwiek danych pobranych z ich treści, a więc bez tytułu i opisu. W GWT możesz je wyindeksować tymczasowo, ale dopóki strony zwracają nagłówek 200, będą mogły zostać zaindeksowane ponownie jeśli Google trafi na nie przez linki.

Odnośnik do komentarza
Udostępnij na innych stronach

Mam domene z PR po przechwyceniu. Postawiłem na niej stronę wraz z nowym contentem. Oprócz nowych podstron, są zaindeksowane podstrony po poprzednim serwisie. Chciałbym je wyindeksować w GWT. Gdzie i jak to konkretnie zrobić w GWT?

Czy wogołe da radę też takie podstrony usunąć z indeksu?

 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 6 miesięcy temu...

Witam.

Chciałem odświeżyć wątek. Bo mam taki problem.

Google indeksuje mi podstrony sklepu których teoretycznie nie ma. Są to stare podstrony które pochodzą z tz startowej treści, jak się kupuje skórkę, to jest ona zapełniona jaką treścią.

Ta treść była usunięte. Gdy sklep był zgłoszony z www, nie było problemy. Miesiąc temu zgłosiłem zmianę na bez www, i pojawiły się właśnie wstrzykiwania tych starych treści. Błąd mam 404.

Tego jest ok 450 linków. Na razie zrobiłe w[is w robot.txt, ale tak:

Disallow:

I w dół adresy. Czy to wystarczy?

Czy jest możliwość zgłoszenia większej ilości jednorazowo do wyindeksowania w narzędziu Usuń adresy URL

Pozdrawiam.

Odnośnik do komentarza
Udostępnij na innych stronach

Przede wszystkim wpisem w robotsach nie zablokujesz podstron przed indeksacją, tylko przed pobieraniem i wyświetlaniem w SERPach ich zawartości.

Nie ma możliwości masowego zgłoszenia wielu podstron przez GWT, chyba że znajdują się w jednym katalogu, który zgłosisz.

Odnośnik do komentarza
Udostępnij na innych stronach

@Lexy a jest jakis sposob aby wprowadzic te adresy do windeksowania w wiekszej ilosci ? ? ?

Jeżeli jest to jeden katalog np url.tld/katalog1/wszystko do windeksowania.php .. ?

Podaruj 1% Oli Borwik

Wspieraj charytatywnie na SEO forum PIO

 

Odnośnik do komentarza
Udostępnij na innych stronach

Niestety o ile mi wiadomo, nie ma takiej możliwości, a sama już kilka razy bym z niej skorzystała. Można zgłosić albo konkretny URL, albo cały katalog.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności