Skocz do zawartości

Blokowanie w robots.txt


M@k

Rekomendowane odpowiedzi

Mam pytanie dostałem filtr na jeden katalog. Czy zablokowanie tych złych stron w tym katalogu w robots.txt pomoże?

Ze względu na konstrukcje strony nie mogę tych stron usunąć w webmaster tools bo to nie są katalogi, a

w robots.txt bym mógł. Ale czy google to potraktuje jako dobry ruch?

Odnośnik do komentarza
Udostępnij na innych stronach

Spróbuj, chociaż ciekawe czy te strony znikną z indeksu? I kiedy? Do prośby o ponowne rozpatrzenie to żaden argument. Do tego sitemap jest pewnie i tak przesyłany razem z tymi niechcianymi stronami. Nie możesz ich po prostu usunąć i wtedy napisać o rozpatrzenie?

Odnośnik do komentarza
Udostępnij na innych stronach

To jest filtr algorytmiczny, nie ręczny tak że pisanie o rozpatrzenie nic nie da. To muszą jakoś technicznie rozwiązać. Tak myślę na takim rozwiązaniem. Aby cały tek katalog usunąć w panelu webmaster i za-indeksować to jeszcze raz w innym katalogu, a na stronach który są złe dać noindex. Jak myślicie, co lepsze?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności