Skocz do zawartości

Blokowanie robotów htaccess ?


intruder2600

Rekomendowane odpowiedzi

Tak, ale przy blokowaniu całych klas istnieje prawdopodobieństwo zablokowania dostępu "normalnym" userom

Dlatego się wycina Azję, Turcję, Rosję, Ukrainę, Afrykę... tam normalnych userów nie ma ;)

"Szaleństwem jest chodzenie po ulicy z połówką melona na głowie i powtarzanie: Jestem chomikiem"

Dick Steele, Agent WD-40 [*]

Odnośnik do komentarza
Udostępnij na innych stronach

  • 4 tygodnie później...
  • Odpowiedzi 30
  • Dodano
  • Ostatniej odpowiedzi

Czy lista podana przez Ciebie wycina wszystkie te nie pożądane kraje, ich wyszukiwarki itd. czy coś jeszcze należało by dodać do niej? Chcę sobie przygotować taką listę i dodawać do każdej stronki do htaccess :)

Tworzenie, wsparcie sklepów na Prestashop GoPresta.pl zapraszam do współpracy

Odnośnik do komentarza
Udostępnij na innych stronach

Lista wycina azjatów, skąd jest masa szajsu :)

Ale warto wyciąć jeszcze turcję, dawne zsrr i część afryki :) Z tym, że jest sporo zabawy i raczej nie ma gotowych list.

"Szaleństwem jest chodzenie po ulicy z połówką melona na głowie i powtarzanie: Jestem chomikiem"

Dick Steele, Agent WD-40 [*]

Odnośnik do komentarza
Udostępnij na innych stronach

  • 10 miesięcy temu...
  • 1 rok później...

Jaka regułą zablokować yandex i baidu ? Szukam i dużo wyrzuca mi.. i nie wiem co wybrac. Ma ktoś gotowca ?

Edit: Mam takie coś:

Agent: Mozilla/5.0 (compatible; Baiduspider/2.0; +https://www.baidu.com/search/spider.html)

Agent: Mozilla/5.0 (compatible; YandexBot/3.0; +https://yandex.com/bots)

Masz layout do pocięcia? Wynajmij mnie! Koder XHTML, CSS ---> turbohtml.pl

Darmowe plusy google!! google+1 Zobacz, wejdź: faceplus_banner_88_31.png

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 miesiąc temu...

Witam

Mam problem z robotami indeksującymi.

W styczniu - czyli przez te niecałe 2 dni zjadły mi 5 gb transferu - więc połowę ogólnie zużytego.

Jeśli chodzi o googlebot nie ma problemu, przyblokowałem go w webmaster tools i może się uspokoi, ale nie wiem co dalej.

Mam jeden wpis w statystykach AWSTAT o nazwie Unknown robot (identified by 'bot*') który zjadł 1,5 gb.

Czy jest to jeden robot czy zlepek kilku który te statystyki nie potrafią zidentyfikować?

Pozdrawiam

Michał Boboski

Odnośnik do komentarza
Udostępnij na innych stronach

bobek, zbanuj IP podejrzanych robotow, ktorych liste znajdziesz w sieci, plikiem .htaccess

Panie Boże, chroń mnie przed debilami, bo rozmowa z nimi powoduje, że  grzeszę pychą..

Były sobie świnki trzy - content, google oraz link | jestem uczulony na pierd*lenie głupot | idiot intruder aka internetowy poszukiwacz prawdy 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 rok później...

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności