Skocz do zawartości

Scrapebox v 1.0 - 2.0


artur_waw

Rekomendowane odpowiedzi

Jak masz antyvira, to Cię poinformuje i nie wpuści śmiecia a jak nie masz, to ssiesz wszystko jak leci, razem z syfem - gdzie tu widzisz sprzeczność?

Na localu Avast+SB u mnie bardzo ładnie działał - nic nigdy nie złapałem a obciążenie przy 30-50 wątkach niewielkie. Na VPSie to już jest inna bajka - tam nigdy nie miałem żadnego antyvira.

Odnośnik do komentarza
Udostępnij na innych stronach

elroy pokaz mi gdzie ja powiedziałem że SB nie pobiera wirusów jak masz "gołego" komputera?

Najpierw mówicie że SB nie pobiera wirusów, że antyvir tylko informuje

oczyścicie informuje, ale i przerywa połączenie SB z zawirusowaną strona, tak działa większość systemów antywirusowych

Na VPS również polecam antywir, uprzedzam pytania sensownego darmowego nie znam.

Edytowane przez MaxPan
Odnośnik do komentarza
Udostępnij na innych stronach

Dawno nie zaglądałem do tego tematu, aż do dziś. Zmieniłem winshita na linuxa, wszystko śmiga wspaniale, ale przy uruchamianiu scrapeboxa z wine wyskauje błąd. Ktoś może miał podobny problem?

Odnośnik do komentarza
Udostępnij na innych stronach

elroy pokaz mi gdzie ja powiedziałem że SB nie pobiera wirusów jak masz "gołego" komputera?
Najpierw mówicie że SB nie pobiera wirusów, że antyvir tylko informuje

oczyścicie informuje, ale i przerywa połączenie SB z zawirusowaną strona, tak działa większość systemów antywirusowych

Na VPS również polecam antywir, uprzedzam pytania sensownego darmowego nie znam.

Nie mówię że to ty akurat napisałeś ale ktoś coś takiego napisał, nie chce mi się tego szukać.

Przeleciałem kompa combofix'em i dr. web'em i nic nie znalazł, ale czas zaopatrzyć się w antyvira.

Tak z ciekawości zapytam, jak długo średnio harvestujecie strony? Czy SB miewa zawiechy przy długim czasie?

Odnośnik do komentarza
Udostępnij na innych stronach

Tak z ciekawości zapytam, jak długo średnio harvestujecie strony?

Raczej ile stron harvestujemy, bo czas zależy od tego na ile połączeń możesz sobie pozwolić(proxy, wydajność kompa) oraz łącza. Zależy czego szukam, jak są to SEOki to po usunięci duplikatów zostaje jakieś 3000 stron, jeżeli fora/blogi/itd. to idzie to w miliony(oczywiście trzeba sobie podzielić keywordy na paczki, bo SB ma ograniczenie do 1 mln wyników)

Pozdrawiam,

Patryk.

Odnośnik do komentarza
Udostępnij na innych stronach

Czym dzielicie większe pliki na paczki? Mam plik txt ok 500 mb, czym to sensownie podzielić?
Działa Ci ten dodatek? Bo mnie właśnie nie chce podzielić pliku na takie po 2000 linii :)

Może to Wam zadziała:

https://scrapeboxmarketplace.com/free-tools/scrapebox-helper-tools

spacer.png

Odnośnik do komentarza
Udostępnij na innych stronach

Witam.

Od wczoraj były problemy ze sprawdzaniem proxy względem zdolności przerobowych pod google - błędne wyniki. Sprawa została zgłoszona do supportu (zapewne nie tylko przeze mnie :D) i w tym momencie do pobrania jest wersja 1.15.48, która skutecznie eliminuje m.in. ten błąd.

Pozdrawiam.

spacer.png

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności