Skocz do zawartości

GScraper - najszybszy harvester i dodawarka.


Paweł Sokołowski - Eline

Rekomendowane odpowiedzi

splash_pio.jpg

GScraper jest prawdopodobnie* najszybszym i najdokładniejszym harvesterem Google. Jeśteśmy o tym tak przekonani że udostępniamy Ci go do testów za darmo. Jego opcje wprawią Cię z zachwyt!

Przy standardowych ustawieniach, każdy wątek Gscraper'a zbiera adresy URL z szybkością około 5 na sekundę. To znaczy że w ciagu sekund każdy wątek pobiera z serwera nowe proxy, parsuje wyniki organiczne Google wyłapując te adresy które są zgodne z wyszukiwanym footprintem i zapisuje je do pliku tekstowego. To naprawde szybko, tym bardziej że ma limitu wątków! Gscraper został zoptymalizowany do pracy z duża liczbą wątków. Tak więc przy 300 wątkach, uzyskany wynik powinien wynosić około 90.000 URLi na minutę tak jak na poniższych zrzutach z pracy programu uzyskanych przy typowym footprincie. Komputer z szerokopasmowym łączem powinien łatwo przekroczyć 100,000 URLi pobranych w ciągu minuty. My osiagamy takie wyniki regularnie harvestujac SERPy dla własnych projektów.

scraper_speed1t.jpg scraper_speed2t.jpg scraper_speed3t.jpg

Wyobraź sobie jakie listy możesz zebrać posiadając taką moc! Pomyśl jak duże listy możesz zebrać w ciągu zaledwie godziny harvestując z taką prędkością. Jeśli Twój czas ma wartość, pomyśl ile go zaoszczędzisz.

GScraper automatycznie sprawdza czy dodanie było poprawne i wpis został zaakceptowany. Czasy kiedy należało sprawdzać ręcznie dodania AA (autoapprove) po ukończeniu postowania mineły bezpowrotnie! Z GScraper'em poprostu dodajesz linki do wcześniej pozyskanej listy, a GScraper zajmuje się w trakcie wysyłki sprawdzaniem każdego dodania. Szybko, łatwo i skutecznie. Co więcej? W przeciwieństwie do innych programów wysyłających tylko komentarze do blogów, Gscraper może dodawać do każdego rodzaju formularza w którym nie jest wymagana autoryzacja! GScraper obsługuje razwiązywanie captcha poprzez DBC, Captcha Sniper,etc. Kiedy skończy dodawać linki czy zbierać nową listę dostaniesz powiadomienie na e-mail. Można by długo wymieniać poszczególne funkcje, ale chyba będzie najlepiej jeśli pobierzesz darmową wersję i sprawdzisz jak szybki jest Gscraper.

Cena: 38 USD, jednorozowo.

Dostępna jest również wersja FREE, gdzie część opcji jest wyłączona (min. dodawanie czy filtrowanie wyników).

Więcej informacji wraz z dokładnym opisem narzędzia i filmem na: https://www.gscraper.pl

Zapraszam.

search_auditor_500x80_bf.png

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 515
  • Dodano
  • Ostatniej odpowiedzi

Można ustawić harmonogram harvestowania ? Czyli np. codziennie będzie mi harvestował adresy według ustalonych ustawień.

Jak ktoś zna jakiś dobry harvester, to może się podzielić na priv. Jednak musi być naprawdę dobry :)

O7vVmZ7.gif

Punkty statlink.pl - dobra cena + gratis Skrypt i eBook, Blog SEO/SEM i Tatuaże na Dziarownia.pl (tatuaże)

Odnośnik do komentarza
Udostępnij na innych stronach

ten z xseona jest naprawdę dobry(lepszego nie miałem), ale tego z tematu nie testowałem, jeśli wierzyć opcjom(zmiana proxy przy padzie, podłaczenie do dbc itd, automatyczna segregacja) no to zapowiada się świetnie :D

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Xsenona, jeśli chodzi o ilość opcji nie przebije - tutaj nie ma o czym mówić. To jest soft który mozna porównać bardziej do Scrapeboxa jeśli chodzi o sposób wyszukiwania. To ma byc łatwe i szybkie, i staramy się aby takie było.

Wrzucasz footprint, wczytujesz listę słów kluczowych (możesz użyć wbudowanej) i to wystarcza do rozpoczęcia harvestowania. Podobna procedura z postowaniem.

BTW na forum jest juz kilka osób z Polski, wiec w sumie będziecie się czuli jak w domu ;)

@arve_lek - napisz dokładniej jak by to miało wyglądać, pomyślimy. Na chwile obecna dla leni została dodana opcja automatycznych powiadomień, więc jak GScraper skończy dodawanie czy postowanie to macie maila na skrzynce czy smartfonie. Opcja bardzo przydatna szczególnie jak się używa programu na VPSie. Czyli po każdym mailu wiesz kiedy sie zalogowac zeby zlecić następne zadanie.

search_auditor_500x80_bf.png

Odnośnik do komentarza
Udostępnij na innych stronach

@arve_lek - napisz dokładniej jak by to miało wyglądać, pomyślimy. Na chwile obecna dla leni została dodana opcja automatycznych powiadomień, więc jak GScraper skończy dodawanie czy postowanie to macie maila na skrzynce czy smartfonie. Opcja bardzo przydatna szczególnie jak się używa programu na VPSie. Czyli po każdym mailu wiesz kiedy sie zalogowac zeby zlecić następne zadanie.

W skrócie, ale dokładniej.

Wgrywam różne paczki footprintów np.

- seokatalogi

- easydir

+ dla każdej paczki osobne słowa kluczowe

Następnie ustawiam, że ma mi codziennie harvestować adresy np. z ostatniego roku z Google. Adresy będę zapisywane do osobnych plików, ale zanim zostaną zapisane to powinny zostać przycięte do domeny. Oczywiście filtrowanie adresów pod względem duplikatów też powinno być.

Codziennie by się dopisywały nowe adresy.

Nie wiem czemu jak ludzie tworzą harvester, to zawsze działa on na takiej samej zasadzie jak inne. Zero automatyzmu i pomysłowości :P

Mion mógłby taką funkcję u siebie wprowadzić :D

O7vVmZ7.gif

Punkty statlink.pl - dobra cena + gratis Skrypt i eBook, Blog SEO/SEM i Tatuaże na Dziarownia.pl (tatuaże)

Odnośnik do komentarza
Udostępnij na innych stronach

Następnie ustawiam, że ma mi codziennie harvestować adresy np. z ostatniego roku z Google. Adresy będę zapisywane do osobnych plików, ale zanim zostaną zapisane to powinny zostać przycięte do domeny. Oczywiście filtrowanie adresów pod względem duplikatów też powinno być.

Codziennie by się dopisywały nowe adresy.

Tak się zastanawiam, jaki sens ma codzienne harvestowanie tych samych footprintów z tego samego czasookresu, bo wyniki będą dość podobne ;) Natomiast nie mi oceniać sposób w jaki chcesz zużywac zasoby ;)

Może napisze ci jak ja to robie. Harvester jest bardzo szybki, można uruchomić go wielokrotnie. Więc zebranie danej listy jest błyskawiczne, a wielokrotne instancje możesz używać do różnych footprintów. Zebrane listy są nazywane unikalnie i umieszczane w odpowiednich folderach. To że otrzymujesz powiadomienie mi wystarcza żeby zalogowac się na VPS, sprawdzić co zrobił i zmienić footprint. Przy używaniu proxy z GScrapera nie masz nic innego do roboty - wrzucasz footprint i po kilku godzinach dostajesz maila ze skończone.

search_auditor_500x80_bf.png

Odnośnik do komentarza
Udostępnij na innych stronach

Tak się zastanawiam, jaki sens ma codzienne harvestowanie tych samych footprintów z tego samego czasookresu, bo wyniki będą dość podobne ;) Natomiast nie mi oceniać sposób w jaki chcesz zużywac zasoby ;)

Ma duży. Zastanów się głębiej...

Ja to chciałbym mieć pełen automatyzm :) No nic będzie trzeba zlecić dedykowaną aplikację, bo prędzej doczekam się upadku Google niżeli wydania dobrego programu do harvestowania, tak aby działa w pełni automatycznie.

O7vVmZ7.gif

Punkty statlink.pl - dobra cena + gratis Skrypt i eBook, Blog SEO/SEM i Tatuaże na Dziarownia.pl (tatuaże)

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności