Skocz do zawartości

Serp, pewnie sporo takich już było


Kriss

Rekomendowane odpowiedzi

Witam.

Popełnilem dzisiaj po południu programik desktopowy, do sprawdzania pozycji w google. To jest wersja robocza (bardzo :D ) programu, napisany w C#.

Napisałem go bo poprostu chciałem sam to zrobić.

Generalnie nie korzysta z api tylko pobiera całe strony z googla i parsuje je (po klasach css).

Pytanie, czy są jakieś przeciwwskazania do takiego podejscia do tematu??

Prosze o opinie.

Na moje oko to daje prawdziwe wyniki

Jak wszystko będzie ok zabiorę się za wykończenie, zapisywanie zestawów słów, konfiguracji itd.

adres pliku Pliczek

--------------------------------

Katalog Stron

Odnośnik do komentarza
Udostępnij na innych stronach

Podejście jest bardzo dobre. Tylko ta metoda daje w miarę wiarygodne wyniki. Pamiętaj tylko aby nie dać się zbanować google. Jeżeli sprawdzasz dużą liczbę stron stosuj pauzy o losowym interwale, włącz cookie, przedstawiaj się (możesz stosować różne wersje klientów ale pamiętaj o usunięciu poprzednich ciasteczek). Generalnie narazić się google lub msn na bana jest ciężkie jeżeli zastosuje te kilka prostych rad, w przypadku Yahoo jest już znacznie łatwiej.

Odnośnik do komentarza
Udostępnij na innych stronach

a może popełniłbyś coś do czego można by było importować adresy z pliku.txt i to coś sprawdzałoby bl, PR i ilość zindeksowanych stron - najlepiej gdyby to coś losowało data center z ktorego korzysta :(

Canon sony aparaty cyfrowe, kamery cyfrowe - promocja. Atrakcyjny system ratalny. Katalog stron www

Odnośnik do komentarza
Udostępnij na innych stronach

To znaczy że mogę dostać bana za to że sprawdzam za dużo razy wyniki?? a ten ban to byłby na IP ??

To może na przez jakieś proxy się łączyć??

Z tymi różnymi wersjami klientów.

to są dwie przykładowe linie z logów jakiegoś serwa (wywaliłem swój adres)

1.	   adres - [11/Nov/2006:10:24:56 +0100] "GET / HTTP/1.1" 200 637 "" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; InfoPath.2; .NET CLR 2.0.50727)

2.	  adres - - [11/Nov/2006:10:14:45 +0100] "GET / HTTP/1.1" 200 637 "" ""

Pierwsza jest to zapytanie z IE a druga to właśnie z mojego programu, rozumiem że chodzi o ten brakujący fragment "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; InfoPath.2; .NET CLR 2.0.50727)" ??

i żeby go losowo zmieniać ??

Co do cookies to tu będzie problem bo korzystam z wbudowanych klas framework'a a w dokumentacji nie ma śladu o cookies (w tej klasie) ale porozglądam się za tym.

--------------------------------

Katalog Stron

Odnośnik do komentarza
Udostępnij na innych stronach

Przyklad uzycia cookies c# znajdziesz na codeproject.com jak i wiele innych ciekawych rzeczy dotyczacych sharpa.

Tak, google jak i inne wyszukiwarki bronia sie przed tego typu zabiegami. Dlatego oprocz samej ilosci zapytan brana jest ich czestotliwosc. Yahoo jest bardzo wyczulone na tym punkcie.

edit:

Nigdy nie używałem proxy dla zapytań wyszukiwarek (a używam po kilkadziesiat tysiecy zapytań dziennie) i jak dotej pory wszystko pracuje dobrze - grunt robić to zgłową i jak to było powrarzane wiele razy - symulować zachowanie człowieka. Powinieneś przystosować swój program tak aby sumulował prące sieci lokalnej która posiada wiele maszyn - powiedzmy że każde zapytanie idzie z innej maszyny (inny klient, inne cookies itp.) dzieki temu możesz stosowąć wiele zapytań bez obawy o bana.

Odnośnik do komentarza
Udostępnij na innych stronach

Dziala.

Musiałbys poprostu odpalic kilka instancji. Pozatym ten skrypt sprawdza wiele czynnikow wiec wydluza to czas sprawdzenia jednej domeny – jest dosc duzy interwal wstawiony wiec wszystko troszke trwa. Ja tym i podobnym narzędziem sprawdzam w partiach po kilkanascie tysięcy odfiltrowanych domen.

edit:

https://www.toj.pl/tools/ a https://toj.pl/tools/

Odnośnik do komentarza
Udostępnij na innych stronach

U mnie też działa ;) Wolnoo działa ;)

Dodaj opcje zapisu url i słów kluczowych jak ta aplikacja ma być trochę bardziej funkcjonalna ;)

Na tą chwile zrobiłem możliwoś dodawania tzw. useragent przy zapytaniu wybierany jest losowy z listy, kończe możliwość obsługi różnych DC (liste udostępnił mi kyo.pl) i oczywiście będzie można zapisywać zestawy słów. Wszystko jest/będzie trzymane w xml, wyniki też będzie można zapisać.

Pracuje nad tym :P

Jak będą miał nową wersję to dam znać

--------------------------------

Katalog Stron

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności