Skocz do zawartości

robots.txt - zablokowanie typu pliku?


MKucinski

Rekomendowane odpowiedzi

Mam shakowaną stronę, wordpressa. W serwisie było ok. 15k podstron z replikacji i chińskimi znaczkami. Mają wspólny czynnik, ponieważ każda z podstron ma końcówkę .htm. Zastanawiam się czy w robots.txt nie mogę ich wszystkich wykluczyć? Jeżeli tak - to jak?

Są jeszcze jakieś dobre praktyki w takiej sytuacji?

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 miesiące temu...

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności