Powiedzmy sobie szczerze: prawie wszystko zależy od łaski lub niełaski Google. Możliwości "kombinowania" z zapytaniami/nagłówkami są dość ograniczone, bo i tak trzeba w końcu wysłać zapytanie z adresu o geolokalizacji gdzieś w dżungli, by sprawdzić czy fryzjer z Nowego Sącza jest widoczny w Google. Chyba nie ma wątpliwości, że rozpoznawanie "podejrzanych" zachowań nie jest rzeczą trudną, bo jakie jest prawdopodobieństwo, że "normalny" użytkownik: - jest zlokalizowany w Boliwii, ale tłucze request za requestem do google.pl i innych wersji (najlepiej jednocześnie) - oczywiście przy tym stosuje operatory, nie używa suggesta, nie pobiera nic poza czystym HTMLem, często nie przesyła Cookie czy używa "dziwnych" nagłówków albo ściąga od razu 100 wyników w jednym zapytaniu dodając odpowiednie parametry i pewnie jeszcze sporo by można było wymieniać. Wygląda na to, że zdarza się, że: - niektóre proxy można w krótkim czasie "wyssać" do końca robiąc dość sporo zapytań (czyli nieco inne użycie, niż monitoringi, które raczej robią zapytania "oszczędnie"), o czym już kilka osób pisało; czyli prawdopodobnie chodzi o maksymalne wykorzystanie proxy w krótkim czasie do momentu jego zbanowania lub propagacji informacji o banie (co zdaje się jako tako działa w harvesterach) - użycie publicznych proxy o geoip USA i requesty do google.com są traktowane "łagodniej" - co chyba nikogo nie dziwi specjalnie Google zdaje się po prostu realizować kolejne etapy strategii - przez pewien czas przyzwalając na "tanie" praktyki i budując wokół siebie rynek, zakorzeniając w mózgach przedsiębiorców potrzebę istnienia w wyszukiwarce, a teraz stopniowo podnosząc koszty pozycjonowania przeciąga ich na "swoją stronę". A przy okazji tną koszty związane z podawaniem wyników dla nietypowych zapytań. Trudno się temu dziwić.