Skocz do zawartości

Jak zablokować zaplecze przed robotami: ahrefs, majestic seo i open site explorer?


dentro

Rekomendowane odpowiedzi

  • Odpowiedzi 35
  • Dodano
  • Ostatniej odpowiedzi

Top użytkownicy w tym temacie

Google Ci zablokowali?

Przykład:

.htaccess
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} ^rogerbot [OR]
RewriteCond %{HTTP_USER_AGENT} ^exabot [OR]
RewriteCond %{HTTP_USER_AGENT} ^MJ12bot [OR]
RewriteCond %{HTTP_USER_AGENT} ^dotbot [OR]
RewriteCond %{HTTP_USER_AGENT} ^gigabot [OR]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot
RewriteRule ^.* - [F,L]

lub

robots.txt
User-agent: Googlebot
Disallow:
User-agent: msnbot
Disallow:
User-agent: Slurp
Disallow:
User-agent: Teoma
Disallow:
User-agent: rogerbot
Disallow: /
User-agent: exabot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: dotbot
Disallow: /
User-agent: gigabot
Disallow: /
User-agent: AhrefsBot
Disallow: /
User-agent: *
Disallow: /

Remember to brush your teeth !
tworzenie stron w rozsądnej cenie oraz biuro rachunkowe poznań.

Nie masz jak dojechać? Wynajmij limuzynę w Poznaniu.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja mam tak:

BrowserMatchNoCase rogerbot bad_bot
BrowserMatchNoCase exabot bad_bot
BrowserMatchNoCase MJ12bot bad_bot
BrowserMatchNoCase dotbot bad_bot
BrowserMatchNoCase gigabot bad_bot
BrowserMatchNoCase AhrefsBot bad_bot
Order Deny,Allow
Deny from env=bad_bot

Edytowane przez czarny
Odnośnik do komentarza
Udostępnij na innych stronach

Czy ta blokada jest po to aby nie było widać ile jest linków wychodzących do naszej domeny pozycjonowanej? Czy żeby nie było widać ile nasza domena ma bl?

Bezgotówkowo auto zastępcze z oc sprawcy na czas naprawy. Jeśli natomiast chcesz kupić tanie OC naprawdę dobra multiagencja. Czy każdy może mieć apartament na wynajem i na tym zarobić?

Odnośnik do komentarza
Udostępnij na innych stronach

U mnie reguły to wycinają np. Wszystkie mi znane adresy z ovh, hetznera, całe .ru, .ua, .jp, .cn, .br, .lt, .vn + pojedyncze ip lub cale klasy gry uznam, że to źródło niepotrzebnego ruchu

Edytowane przez Gucci
Odnośnik do komentarza
Udostępnij na innych stronach

pozostaje jeszcze bing :D

  • Like 1

Agencja marketingowa Semgence istnieje na rynku od 2018 i odpowiada za prowadzenie działań SEO dla wielu firm małych i dużych. Prowadzimy też kampanie Google Ads - niedawno zostaliśmy sie Partnerem Google spełniając odpowiednie kryteria. Betapoint

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zgred gdzieś czytałem jak ty blokujesz roboty ale nie mogę znaleźć może zapodaj prawidłową regułkę dla htaccess

ja mam taką ale w majestic widać wszystko jak na dłoni chyba jest coś nie tak z tym wpisem

RewriteCond %{HTTP_USER_AGENT} Twice|Roge|Yand|Baidu|site|Ahre|AhrefsBot|seo|Yahoo|Voil|libw|Java|Sogou|psbot|Exabot|boitho|ajSitemap|Rankivabot|DBLBot|MJ1|MJ12bot|Rankivabot|ask

RewriteRule ^(.*)$ https://www.wp.pl/ [L,R=301]

Order Allow,Deny

deny from 111 124 125 147 169.208 175 180 182 183 202 203 210 211 218 219 229 221 222

deny from 112.0.0.0/5 120.0.0.0/6

Allow from all

Czy jest możliwości zablokowania wszystkich robotów oprócz googla ?

Edytowane przez tur77ek
Odnośnik do komentarza
Udostępnij na innych stronach

Co do tego, co widać w Majesticu - kiedy "wyciąłeś" jego roboty? Bo równie dobrze roboty Majestica mogły już przejrzeć Twoją stronę na wylot, a teraz pokazują to, co zebrały wcześniej.

A czy w Majesticu przestaną pokazywać informacje o Twojej stronie po jej ponownym odwiedzeniu (i czy wywalą to od razu) - niech się wypowie ktoś, kto to sprawdzał na własnej skórze.

Czy jest możliwości zablokowania wszystkich robotów oprócz googla ?

Nie sądzę, żeby to było sensownie wykonalne inaczej, niż wymieniając User-Agenty i zakresy IP dla konkretnych botów.

Gdybyś chciał na tej podstawie jawnie "dopuścić" tylko roboty Google'a to wyciąłbyś użytkowników, którzy też jakieś tam User-Agenty i IPki mają.

Od biedy można jawnie wyciąć te lepiej znane po User-Agent i IP, a te mniej znane po User-Agent zawierającym np. bot, spider, crawler itd. (dopuszczając jawnie User-Agenty robotów Google'a). Ale nie wiem, czy warto się w to zagłębiać.

Jeszcze inaczej można poza jawnym wycięciem tych najpopularniejszych dopuszczać tylko określone User-Agenty odpowiadające przeglądarkom, ale moim zdaniem nie warto, nie mówiąc już o tym, że niechcący można stracić jakąś część "niestandardowych" użytkowników.

Odnośnik do komentarza
Udostępnij na innych stronach

Czy robot

MJ1 i MJ12bot to to samo ? I jak to powinno być wpisane 1 czy 2 ? to samo to poniższych.

Ahre i AhrefsBot

Znalazłem coś takiego

RewriteBase /

RewriteCond %{HTTP_USER_AGENT} .*Twice.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Yand.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Yahoo.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Voil.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*libw.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Java.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Sogou.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*psbot.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Exabot.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*boitho.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*ajSitemap.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Rankivabot.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*DBLBot.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*MJ1.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*Rankivabot.* [OR]

RewriteCond %{HTTP_USER_AGENT} .*ask.*

RewriteCond %{HTTP_USER_AGENT} .*AhrefsBot.*

RewriteCond %{HTTP_USER_AGENT} .*Roge.*

RewriteCond %{HTTP_USER_AGENT} .*Baidu.*

RewriteCond %{HTTP_USER_AGENT} .*site.*

RewriteCond %{HTTP_USER_AGENT} .*Ahre.*

RewriteCond %{HTTP_USER_AGENT} .*seo.*

RewriteCond %{HTTP_USER_AGENT} .*MJ12bot.*

RewriteRule ^(.*)$ https://anysite.com/ [L,R=301]

Order Allow,Deny

Allow from all

Deny from 110.0.0.0/8

Deny from 111.0.0.0/8

Deny from 112.0.0.0/5

Deny from 120.0.0.0/6

Deny from 124.0.0.0/8

Deny from 125.0.0.0/8

Deny from 147.0.0.0/8

Deny from 169.208.0.0

Deny from 175.0.0.0/8

Deny from 180.0.0.0/8

Deny from 182.0.0.0/8

Deny from 183.0.0.0/8

Deny from 202.0.0.0/8

Deny from 203.0.0.0/8

Deny from 210.0.0.0/8

Deny from 211.0.0.0/8

Deny from 218.0.0.0/8

Deny from 219.0.0.0/8

Deny from 220.0.0.0/8

Deny from 221.0.0.0/8

Deny from 222.0.0.0/8

Odnośnik do komentarza
Udostępnij na innych stronach

Hej, skopiuje swój post z innego tematu, ale myślę że warto i Ci się przyda :)

Ja używam takich opcji:

1:

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot

RewriteCond %{HTTP_USER_AGENT} ^InnyBot

RewriteRule ^.* - [F,L]

2.

SetEnvIfNoCase User-Agent .*AhrefsBot.* bad_bot

SetEnvIfNoCase User-Agent .*InnyBot.* bad_bot

order allow,deny

deny from env=bad_bot

allow from all

3.

W robots.txt:

user-agent: AhrefsBot

disallow: /

user-agent: InnyBot

disallow: /

Stosuje te trzy techniki i nie mam problemów.

Kocham Polskę

Odnośnik do komentarza
Udostępnij na innych stronach

Mam kilka domen zapleczowych podlinkowanych zrobiłem przekierowanie 301na docelową , co zrobić aby przekierowanie nie było widoczne w majestic i innych bo w tej chwili wszystko jak na dłoni widać łącznie z linkami z domeny zapleczowej na której są blokady nie wiem dlaczego ale to nie działa.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności