Skocz do zawartości

Robots.txt - blokowanie adresów zakończonych na..


AdamAGP2

Rekomendowane odpowiedzi

kcs_kataloog_info.gif - katalog stron KCS promocja stron - dodaj ciekawą stronę

pks-katalog.gif - katalog stron PKS interesujące strony - dodaj interesującą stronę

Najlepsze miejsce dla e-mieszkańca powiatu piaseczyńskiego to serwis e-piaseczno i okolice

Odnośnik do komentarza
Udostępnij na innych stronach

@Adam - to jest apostrof zamykający przykład. :P

Aby plik robots.txt blokował wszystkie pliki zakonczone na page/1/ to należy wpisać:

Disallow /*page/1/$

W przypadku Googla podobno działa na pewno, w innych trudno powiedzieć.

Portal komputerowy

-
webmastering, biznes

Forum IT - informatyka, komputery, technologie

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 miesiąc temu...

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności