Skocz do zawartości

Blokowanie przez plik robots.txt


Jaason^312

Rekomendowane odpowiedzi

Witam

Ostatnio chciałem sobie zablokować dostęp Google do pewnych plików. Dodałem zatem regułkę

User-agent: *
Allow: /
Disallow: *.pak

jednak po pewnym czasie okazało się, że w google w liście blokowane adresy zaczynają pojawiać się inne pliki i strony. Np. dużo jest plików pdf.

Czy napisałem, źle tą regułkę?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności