Skocz do zawartości

Footprint uwzględniający pagerank


Mclain

Rekomendowane odpowiedzi

Czy znacie jakieś footprint, albo program, który wykorzystywałby zwykłe wyszukiwanie, jednak wyszukiwał strony tylko z odpowiednim PR?

Czy zdradzi mi ktoś takie rozwiązanie?

Jak się uczysz angielskiego, ale się nauczyć nie możesz, to może mogę Ci jakoś pomóc? Taki oto angielski projekt.

Odnośnik do komentarza
Udostępnij na innych stronach

jak footprint może określać PR? przecież PR to wynik działania algorytmu, zwracany przy odpowienim zapytaniu w tym przypadku jest to zapytanie kierowane do wyszukiwarki google. jedynie co możesz zrobić to pobierać URLe sprawdzać ich PR i zapisywać do bazy potem napisać sobie skrypcik który wyrzuci ci odpowiednie strony z odpowiednim PR

 

"Na szczycie zawsze znajdzie się miejsce" - Ale potrzebujesz serwera by tam się znaleźć - Zgarnij kod rabatowy do SEOhost 40% - lub rabat do Cyber_folks - 10% - Rabat do hitme -5% - #reklama #link_sponsorowany

Odnośnik do komentarza
Udostępnij na innych stronach

No właśnie o tym mówię :) Czy jest jakiś programik lub skrypcik tego typu. A ile by mógł kosztować taki skrypt? Nie mam na to jakiegoś dużego budżetu, bo to jakaś tam spontaniczna myśl, która mi wskoczyła przypadkiem, ale jeśli dało by się coś takiego zorganizować, to byłoby miło.

Tylko chciałbym, żeby moja praca ograniczała się do spisania footprinu, np chce strony zawierające frazę "motocykl"

wpisuję inurl:motocykl "motory sportowe", wyszukuje mi strony po takim footprincie, ale otrzymuję wyniki np z minimum 3PR

Jak się uczysz angielskiego, ale się nauczyć nie możesz, to może mogę Ci jakoś pomóc? Taki oto angielski projekt.

Odnośnik do komentarza
Udostępnij na innych stronach

Tylko chciałbym, żeby moja praca ograniczała się do spisania footprinu, np chce strony zawierające frazę "motocykl"

wpisuję inurl:motocykl "motory sportowe", wyszukuje mi strony po takim footprincie, ale otrzymuję wyniki np z minimum 3PR

Najtaniej wjdzie cie kupno scrapeboxa lub USM miona z prostej przyczyny

- oba mają wbudowane harvestery (USM lepszy w tym przypadku)

- oba mają masowe sprawdzanie PR i zapisanie do CSV

Najpier pobierasz linki dla zapytania np "inurl:motocykl "motory sportowe" potem znaleznione strony wrzucasz do masowego sprawdzenia PR a na końcu robisz eksport do CSV a tam dajszesz sobie filtr że PR ma być większy niż 3 dla strony i masz listę gotową.

SB - cena $57

USM - cena chyba 300zł, nie wiem bo autor nie dorobił się jeszcze strony produktowej :D

 

"Na szczycie zawsze znajdzie się miejsce" - Ale potrzebujesz serwera by tam się znaleźć - Zgarnij kod rabatowy do SEOhost 40% - lub rabat do Cyber_folks - 10% - Rabat do hitme -5% - #reklama #link_sponsorowany

Odnośnik do komentarza
Udostępnij na innych stronach

Nie chcę wyjść na sknerę, ale w moim przypadku to trochę za drogo. Nie uważam się za pozycjonera, 80% rzeczy zlecam, bo ja mam taki charakter, że kupiłbym to i by leżało używane bardzo rzadko. Do jednej rzeczy to nie ma sensu takiego czegoś kupować - taniej mnie wyjdzie to komuś zlecić, żeby mi jednorazowo takie coś wyciągnął.

Jeśli ktoś zna jakieś tego typu rozwiązanie lub może mi pomóc, to zapraszam także na priv.

#cinmar mimo wszystko dzięki za poradę, pozdrawiam :)

Jak się uczysz angielskiego, ale się nauczyć nie możesz, to może mogę Ci jakoś pomóc? Taki oto angielski projekt.

Odnośnik do komentarza
Udostępnij na innych stronach

za darmo powiadasz... hmmm pewnie da się coś zrobić, darmowy harvester jest gdzieś na forum musisz poszukać, a jak nie to tutaj masz jakiś,

potrzebujesz jeszcze softu do masowego sprawdzania PR, w tym przypadku polecam Netpeak Checker, ma zapis do CSV. Mam nadzieje że już wiesz jak korzystać z CSV i filtów w exelu. Tyle...

 

"Na szczycie zawsze znajdzie się miejsce" - Ale potrzebujesz serwera by tam się znaleźć - Zgarnij kod rabatowy do SEOhost 40% - lub rabat do Cyber_folks - 10% - Rabat do hitme -5% - #reklama #link_sponsorowany

Odnośnik do komentarza
Udostępnij na innych stronach

Testowałem wczoraj Simple Google Scraper, na początku wszystko działa ok, ale program chyba nie reaguje na proxy, bo po 3 wyszukaniach, Google chyba przyblokowało mi IP. Ale program fajny i w dodatku sam sprawdza PR, nie trzeba go eksportować ;)

Jak się uczysz angielskiego, ale się nauczyć nie możesz, to może mogę Ci jakoś pomóc? Taki oto angielski projekt.

Odnośnik do komentarza
Udostępnij na innych stronach

Wspominałem już, że USM nie jest mi potrzebny.

To tak jakbym chciał znaleźć transport do Warszawy, bo muszę tam jechać raz, a ktoś mi każde kupować pociąg. W moim przypadku to się mija z celem, przynajmniej na obecną chwilę.

Napisałem nawet w odpowiednim dziale, że zlecę taką usługę "wyciągnięcia" odpowiedniej listy. Na razie cisza :/

Jak się uczysz angielskiego, ale się nauczyć nie możesz, to może mogę Ci jakoś pomóc? Taki oto angielski projekt.

Odnośnik do komentarza
Udostępnij na innych stronach

a ktoś mi każde kupować pociąg.
na początku wszystko działa ok, ale program chyba nie reaguje na proxy

to nie plącz ze maluch którego dostałeś za darmo ciągle staje po środku drogi. Bo chcesz i cos sensownego i za darmo, cudów niema i tyle. A na ogłoszenie nikt nie odpowiada bo wie że zaoferujesz prawdopodobnie 20 zl, i cala arytmetyka

Odnośnik do komentarza
Udostępnij na innych stronach

Simple Google Scraper, w porównaniu z (USM+proxymarket), to zabaweczka.

Możesz pobawić się Sick Scraperem, ale bez proxy daleko nie zajedziesz, ma też rozpoznawanie PR, możesz w ten sposób, szybko uszeregować wyniki po PR.

Jak masz pomysł na jakiś ciekawy Fooftprint, to chętnie Ci go profesjonalnie przeharvesteruje, daj znać.

Zajmuję się optymalizację oraz pozycjonowaniem stron internetowych, wystawiam F.Vat. Proszę śmiało pisać, dzwonić, chętnie odpowiem na wszelkie pytania, wycenię frazy, doradzę.

https://websy.pl/ kontakt@websy.pl, tel: 697715522, NIP: 716-254-81-05, REGON: 060330653

Odnośnik do komentarza
Udostępnij na innych stronach

Gerdi ja mam zagwustkę i nie wiem jak zbudować footprint który wyciągnie mi tylko strony ze sprawdzaniem online whois np?

Próbowałem różnych kombinacji parametrów i fraz i albo mam zero wyników albo po kilkaset tysiecy gdzie w top 50 znajdywalem do 26 stron whois realnie reszta miała tylko te same ciągi znaków w url. title text dodawałem nawet footprint inanchor: search itp. a nawet zakresy dat.

Skuteczność w żadnym przypadku nie przekroczyła 50% :( Masz jakiś pomysł?

ps. co dodać do FP albo w nowym zapytaniu aby wykluczało strony z captcha? "kod obrazka" mi to sie nie sprawdza

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności