Skocz do zawartości

Scrapebox v 1.0 - 2.0


artur_waw

Rekomendowane odpowiedzi

Czy wtyczka w Scrapebox poradzi sobie z odczytaniem anchorów z danej listy przeze mnie wrzuconej do sprawdzenia, ale nie z komentarzy, tylko na przykład z for, ksiąg gości itp?

Jeżeli tylko z komentarzy, to znacie jakiś program, który sprawdzi listę linków, sprawdzi anchor tekst i poda go? Szukam czegoś aby sprawdzić procentowy rozkład anchorów dla danej domeny.

Edytowane przez Hicarian

Ładowanie strony w 2 sekundy, polecam: Lh.pl . Test

Odnośnik do komentarza
Udostępnij na innych stronach

Dzieki za odpowiedzi.

Mam maly problem, z hervestowaniem (świerze 20 proxy oglno dostepne)

- “powered by wordpress”

- zaznacam Wordpres

- słowa szukane: darmowe programy, programy portable

i zwraca '0' wyników

 InternetSpeedTest.pl - speed test ookla, orange, upc, t-mobile, vectra | directX.pl - directx 9, 10, 11, 12 | kodex.pl

Odnośnik do komentarza
Udostępnij na innych stronach

ludzie kiedy wy uświadomicie że 20 proxy publicznych ( nie zrozumiało jak i kiedy testowane) na harwestowanie NIE NADAJE SIĘ

1. Za mało

2.Prawdopodobnie już zdechli

Edytowane przez MaxPan
Odnośnik do komentarza
Udostępnij na innych stronach

ok, jak wrzuciłem 130 słów i na footprinta ustawiłem to poszło

Ale myślałem za nawet dla jednego słow bedzie szukał

PS. proxy działają

Edytowane przez zxc999

 InternetSpeedTest.pl - speed test ookla, orange, upc, t-mobile, vectra | directX.pl - directx 9, 10, 11, 12 | kodex.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Witam,

ma małe pytanka laika w temacie SB.

Przymierzam się do kupna softu i zastanawiam się jak bezpieczne jest np. harvestowanie na własnym prywatnym łączu? Oczywiści używając proxy,

Czy istnieje duże ryzyko, nie wiem, bana na IP?

Mam mocny serwer i duże łącze, ale nie chciałbym aby mi zbanowali IP w firmie czy też w domu.

Czy lepiej/bezpieczniej SB postawić gdzieś na hostingu?

Odnośnik do komentarza
Udostępnij na innych stronach

Witam uczonych kolegów :D - mam pytanko w temacie "czyszczenia" zharvestowanych list. Otóż ostatnio ściagnąłem sobie listę stron "wiki" do wikibota i mam problem ze skróceniem adresów. Dla przykłady adresu właściwe wyglądają tak:

https://www.saleonline.info/

https://www.saltbreaker.com/wiki/

https://www.samuelwilliams.net/mediawiki/

a ja, wiadomo po harvestowaniu mam np.:

https://ac.bslw.com/community/wiki/index.php5/AC_Wiki:About

https://ab-initio.mit.edu/wiki/index.php/Ma...3Goli6E6UZkSEvw

Jak dam "trim to root" to zostaną mi "gołe" podstawowe domeny. Czy ktoś wie jak przyciąć odpowiednio takie adresy?

Z góry dziękuję :)

Odnośnik do komentarza
Udostępnij na innych stronach

seogreen dla wiki niema żadnego znaczenia kazdy soft i tak sam znajduje formularz dodający, wiec po co to tobie?

Ano widzisz Maxiu ;) myślałem że dla WikiBota ma to znaczenie, dzięki jak zwykle :)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności