Skocz do zawartości

Roboty zżerają mi transfer


mirekg

Rekomendowane odpowiedzi

moze najpierw sprawdz jakie to roboty.

jestem pewien ze 3/4 z nich mozesz smiało wyciąć.

są rózne dziwne szukarki i 'urządzenia' które z pewnością nic Ci nie dają a roboty zrą transfer

Trochę informacji o mnie i kontakt: Leszek Wolany

Jedyny: Magazyn Marketingu w Wyszukiwarkach SEM Specialist

Droga do efektywnej pracy - Najlepszy system oparty o Getting Things Done - nozbe.com Teraz także po Polsku, z aplikacją na iPhone i iPada

Odnośnik do komentarza
Udostępnij na innych stronach

a jakie to sa te niepotrzebne roboty i jak je ograniczyc albo zakazac wstepu?

wszystko poza googlem :)))

a bardziej serio to wszystko poza google (90% ruchu) onetu (5%ruchu) msn i yahoo (bo jakoś tak;) ).

Z drugiej strony te wszystkie pozostałe śmieci generują jakieś linki na swoich stronach więc trzeba ocenić po prostu co się bardziej opłaca.

dymna.jpg
Odnośnik do komentarza
Udostępnij na innych stronach

no jeszcze mozna pomyslec o zostawieniu wp, netsprintu, poszukajcie, było juz na forum i o robotach i o tym jak je przyciac

Trochę informacji o mnie i kontakt: Leszek Wolany

Jedyny: Magazyn Marketingu w Wyszukiwarkach SEM Specialist

Droga do efektywnej pracy - Najlepszy system oparty o Getting Things Done - nozbe.com Teraz także po Polsku, z aplikacją na iPhone i iPada

Odnośnik do komentarza
Udostępnij na innych stronach

a jakie to sa te niepotrzebne roboty i jak je ograniczyc albo zakazac wstepu?

wszystko poza googlem :)))

a bardziej serio to wszystko poza google (90% ruchu) onetu (5%ruchu) msn i yahoo (bo jakoś tak;) ).

Z drugiej strony te wszystkie pozostałe śmieci generują jakieś linki na swoich stronach więc trzeba ocenić po prostu co się bardziej opłaca.

W moim przypadku wiekszosc to niestety Google i Onet.

MG

Odnośnik do komentarza
Udostępnij na innych stronach

W dziale narzędzia gdzies jest skrypt PHP razem z lista robotow do blokady.

A zeby ograniczyc szalenstwo google, mozesz sprobowac w google maps ustawic szybkosc indexowania na 'wolne'.

"Szaleństwem jest chodzenie po ulicy z połówką melona na głowie i powtarzanie: Jestem chomikiem"

Dick Steele, Agent WD-40 [*]

Odnośnik do komentarza
Udostępnij na innych stronach

  • 5 miesięcy temu...

robots.txt to gó**o - only .htaccess

u mnie ostatnio boty zaczęły pożerać dziennie po 10gb, także wyciąłem parę botów, ale największym problemem jest rozróżnienie "bad bota", od prawdziwego wiernego usera, który odwiedza nas dziennie po kilka razy - mam takich :D

najlepszym wyjsciem, jest ograniczony page view podczas 1 sesji do np. 100 (poza googlebotem), ktoś dysponuje takim skryptem?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności