Skocz do zawartości

Lista robotów spamujących i wysyłka ich na inną stronkę


zoozool

Rekomendowane odpowiedzi

ja mam coś takiego,

<Limit GET>
Order allow,deny
Allow from all
Deny from 67.
Deny from 64.
</Limit>
<Limit POST>
Order allow,deny
Allow from all
Deny from 67.
Deny from 64.
</Limit>

#RewriteCond %{REQUEST_METHOD} ^(TRACE|TRACK)

RewriteCond %{HTTP_USER_AGENT} ^arachnofilia*	[OR]
RewriteCond %{HTTP_USER_AGENT} ^aspseek*	[OR]
RewriteCond %{HTTP_USER_AGENT} ^bot*		[OR]
RewriteCond %{HTTP_USER_AGENT} ^check*		[OR]
RewriteCond %{HTTP_USER_AGENT} ^crawl* 		[OR]
#RewriteCond %{HTTP_USER_AGENT} ^google* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^infoseek* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^inktomi* 	[OR]
#RewriteCond %{HTTP_USER_AGENT} ^netoskop* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^NetSprint* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^openfind* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^roamer* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^robot* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^rover* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^scooter* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^search* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^siphon* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^slurp* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^spider* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^sweep* 		[OR]
#RewriteCond %{HTTP_USER_AGENT} ^szukaj* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^walker* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^wisenutbot* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^gulliver* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^validator* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^yandex* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^moget@* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^teomaagent* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^infoNavirobot* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^PPhpDig* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^gigabaz* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Webclipping.com*	[OR]
RewriteCond %{HTTP_USER_AGENT} ^RRC* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^netmechanic* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget* 		[OR]
#RewriteCond %{HTTP_USER_AGENT} ^GetRight* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^BackWeb* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Bandit* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^BlackWidow* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Buddy* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^Collector* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Copier* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Downloader* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^FileHound* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Grabber* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^HTTPClient* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^HTTrack* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Mirror* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Recorder* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Sauger* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Snagger* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Snake* 		[OR]
RewriteCond %{HTTP_USER_AGENT} ^Stripper* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Sucker* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperBot* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Surfbot* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Teleport* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebReaper* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebSpider* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Zyborg* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Pockey*				 [OR]
RewriteCond %{HTTP_USER_AGENT} ^QRVA*				   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebMiner*			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier*			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Downloader*		[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebMirror*			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Anarchie*			   [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mass\ Down*			 [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper*			[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebHook*				[OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon   		[OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailWolf		 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro		  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla.*NEWT	 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Crescent			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^CherryPicker		  [OR]
RewriteCond %{HTTP_USER_AGENT} ^[Ww]eb[Bb]andit   	[OR]
RewriteCond %{HTTP_USER_AGENT} ^WebEMailExtrac.*	  [OR]
RewriteCond %{HTTP_USER_AGENT} ^NICErsPRO		 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Telesoft			  [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus.*Webster	 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft.URL	 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/3.Mozilla/2.01 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailCollector		[OR]
RewriteCond %{HTTP_USER_AGENT} ^Szukacz/1.5.* 	[OR]
RewriteCond %{HTTP_USER_AGENT} ^Zyborg/1.0.*
RewriteRule ^.*$ https://www.nsa.gov	[L]

foot.gif

Programista PHP / sql www.grzelka.info

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 rok później...

takie proste pytanie, plik robot.txt ma wyglądać tak?:

User-agent: szukacz

User-agent: s13.linuxpl.com

User-agent: edart.duu.pl

User-agent: tanihost.com

Disallow: /

czy tak:

User-agent: szukacz

s13.linuxpl.com

edart.duu.pl

tanihost.com

Disallow: /

i czy chmod 755 nie będzie za duży?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności