Skocz do zawartości

[program] GHarvester - program do linków z SERP


Mion

Rekomendowane odpowiedzi

  • Odpowiedzi 83
  • Dodano
  • Ostatniej odpowiedzi

Jakich proxy użyłeś do tego harvestu?
Z ProxyMarketu ;)

 

 

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

To był pakiet 100 proxy jednak w praktyce pakiet nie był tankowany do pełna i czasami szło tylko 30 lub może i mniej .. dlatego tak długo cała operacja trwała. Na pełnym pakiecie tak jak kiedyś serwował ProxyMarket ten czas był by znacznie krótszy :huh:

---

Szybkość bardzo zależy od zastosowanych footprint w tym przypadku były z intext.

 

Dla porównania też na proxy z proxy marketu  i klasycznych zapytaniach proces nawet na 30 proxy przebiega relatywnie szybki: https://www.forum.optymalizacja.com/topic/142775-startup-proxymarketpl-szybkie-proxy/?p=1472434

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Nie ma.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

  • 4 tygodnie później...

Taka ciekawostka, co  przed chwilą empirycznie zauważyłem, a mianowicie jak już mamy wypalone proxy po przez operatory i proces pobierania się zatrzymał warto zmienić ilość pobieranych na 10 i np 100 wątków,  przejść na HTTP lub odwrotnie.

 

gindextester10-100.jpg

 

Prędkość pobierania będzie mniejsza, bo maksymalnie po 10 na SERP ale lepsze po 10 ale zawsze do przodu B)

 

 

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 miesiąc temu...

Macie jakiś sprawdzony sposób na odblokowanie prywatnych proxy? Zrobiłem templatę w Zennoposterze do tego, wchodzi przez proxy na zapytanie, uzupełnia captche, przechodzi dalej, dostaję wynik wyszukiwania i niby wszystko jest ok. Ale przy następnym zapytaniu znowu woła o uzupełnienie captchy co w przypadku pracy z harvesterem całkowicie mija się z celem. Mogę prosić o jakieś wskazówki? Nie do końca wiem jak to ugryźć.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak Piszesz raczej nie da rady, bo inny UserAgent robi zapytania w GH, a inny odblokowuje w ZP .. do tego dochodzi kwestia cookies.

 

======

 

Doby, bo skuteczny sposób na mniejsze spalenie proxy, to harvestować nie po 100, ale po 10 na SERP

https://www.forum.optymalizacja.com/topic/198887-program-gharvester-program-do-linkow-z-serp/?p=1478502

---------

Screen - nawet chińskie wbijały:

gharvester_po10mixlang.jpg

 

Małą łyżeczką, ale po 24 H >  3,7 M url  pobranych

 

 

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak Piszesz raczej nie da rady, bo inny UserAgent robi zapytania w GH, a inny odblokowuje w ZP .. do tego dochodzi kwestia cookies.

 

 

Właśnie dlatego pytam, bo zauważyłem, że mój sposób jest nieskuteczny. To co napisałeś na pewno będę stosował na przyszłość.

 

Nadal jednak mam pytanie o skuteczne odblokowanie proxy. Czytałem, że jest to możliwe i byłbym wdzięczny za każdą pomoc/wskazówkę.

Odnośnik do komentarza
Udostępnij na innych stronach

@UP - To nie jest skuteczna metoda, bo po przy zapytaniach z operatorami palącymi proxy captcha wyskakuje, co kolejne zapytanie i to nawet w przeglądarce która obsługuje SERP inaczej niż pojedyncze żądanie HTTP

 

... Można, to sprawdzić w empirycznie, wiec koszt całego harvestu był by dosyć duży. :olaboga:

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

 

 

Podpięcie OCR np. 2captcha

 

 

Tak jak napisał @Mion jest to u mnie całkowicie nieskuteczne i co zapytanie musiałbym wpisywać captche. Zrobiłem templatkę w Zenku, która dokładnie to robi - wykonuje zapytanie, uzupełnia captche, zmienia proxy i powtarza proces itd. Problem w tym, że daje to efekt do wykonania następnego zapytania. Gdyby to było skuteczne w 5 min miałbym wszystkie proxy odblokowane.

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności