
Arseterix
Forumowicze-
Postów
32 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Arseterix
-
MaxPan ma rację. Nie da się, przy sensownych zasobach, zharvestować porządnej listy na EE gdzie można spinnować teksty na profilach. Na użytek VS zrobiłem listę na bodajże 3k stron (które trzymały profile) i to przy dobrym footprintcie. W dodatku sensowną ilość profili udało mi się zakładać przy użyciu deatchbycaptcha dopiero. Szkoda czasu, bo taka lista sama się nie robi. Cały test nie wyszedł poza EE bo nie zabrałem się za learning mode a database do EE była jedyną sensowną na gołym VS. Jak miałem zabierać się za phpbb to soft padł i tyle. I tu wraca pytanie czy przy niewielkich blastach na 10-20k da się sensownie indeksować przez automaty typu SB/SJ. No i czy jest sens brania już teraz XR do obsługi ok. 50 stron. Jeśli obok samego XR kwestia "obudowania" go automatami jest też duża to wolę poszkolić SB i wejść w spamowanie FB i Twitter'a, a do tematu XR wrócić w przyszłym roku.
-
Jeśli chodzi o indeksację tego typu linków to przerabiałem to już używając Venom'a od GreenGoblina z BHW. Projekt upadł ale zanim to się stało miałem kilka miesięcy do pospamowania na profilach m.in. EE. Szczerze powiem, że do indeksacji używałem tylko SB. Oczywiście teksty w profilach były dobrze spinnowane i z tego co pamiętam doszedłem do indeksacji na poziomie 40%, przy czym jakoś bardzo się nie starałem (VS używałem tylko do link diversity na zaplecze). Tylko z tą techniką problem polega na tym, że do tej pory używałem reverse'a do zbieranie list do blastów na SB do tego typu projektów a od kiedy zabili YSE jest już gorzej z robieniem list (pod względem czasu oczywiście). Na bieżąco obsługuje 4 instancje SB, na 50 prywatnych proxach, na łączu 60 Mb więc trochę siły mam już w rękach. Myślę, że do linkowania wpisów zatrudniłbym przede wszystkim scrapejet'a/NHSEO + kilka mniejszych wynalazków z BHW. Przy założeniu mielenia 24/7, przynajmniej na początku, powinno wystarczyć. XR obsługiwałby na wejściu jakieś 50 domen, linkując kilka tysięcy podstron, więc jakieś kolosalne blasty na początku by nie szły.
-
Od razu piszę, że liczę na opinię ludzi, który mają doświadczenie odnośnie XR. W SEO od około roku, kilkadziesiąt domen zapleczowych (w tym 30+ ogólnotematyków), SB w jednym palcu, SWL'e na niezłych punktach, kilka projektów pod Adsense, strony klientów itd. Nie precluje i nie kataloguje, bo jak widzę, że po kilku miesiącach zostaje max. 10% wpisów to... Zawsze co swoje to swoje a czasu i pracy marnować nie lubię. Teraz pytanie jaki jest próg wejścia w mądre użytkowanie XR. Nie chodzi o kasę (to już wiem) a raczej o learning curve. Czasu jak wszyscy mam mało bo w SEO zawsze czasu mało. Mógłbym poświęcić ok. godziny/dwóch dziennie na naukę przy założeniu, że będę mielił na goliźnie. Od razu na XASach i innych modach histerycznie mi nie zależy bo najpierw chcę ogarnąć soft. Szczerze nie widzę innego rozwiązania przy założeniu powiększenia zaplecza 3x a rozwój tego wymaga. A bez linkowania to można...
-
Chyba w formularzu kontaktowym też macie zmiany "algorytmu", bo jakoś nie można doczekać się odpowiedzi... Rejestracja fajnie, implementacja skryptu też ok ale już naliczanie pkt. i zmian w site to pusto od piątku... Na PW przez formularz też głucho...
-
Publiczne proxy są dobre tylko na początek co do tego nie ma żadnych wątpliwości. To tak jakby się spierać co jest lepsze samochód z salonu czy grat spod bloku. Prywatne jednak kosztują i jak ktoś nie orze to są zbędne. Wchodzenie do ligi SEO to takie "od przedszkola do Opola" ale zanim się wystąpi w Opolu to trzeba naprawdę zostawić trochę grosza, a SB to jest pikuś przy niektórych wydatkach. Co do problemów z Google Indexed to niestety ale PingSM czy prywatne proxy nie pomogą jeśli ma się w liście błędnie oznaczone niektóre urle (w tym wypadku bez / na końcu). Support jest ok i wykazał się dużą wyrozumiałością. Sprawę załatwili do 10 dzisiaj.
-
Co do Akismetu to sam jestem po testach i mogę śmiało powiedzieć, że nic nie da się z tym zrobić. Jak wpadnie cokolwiek (adres email, IP, url [a jadą całą domenę nawet jak blastujesz/źle komentujesz subdomenę itd.) to koniec. Można do nich pisać ale to i tak bez sensu, no chyba, że chcesz sobie tracić czas na szukanie dobrych (jak to dobrze odsiać skoro PR to już przeszłość? i ile czasu zmarnować) WP pod manuala. No albo jak masz listę .edu do komentowania w manualu itd. Ja osobiście dawno odpuściłem WP, bo domeny, które przechwytywałem w 70% już są w Akismecie, chociaż ich nawet nie dotknąłem. Najlepsze jest to, że nawet jak robiłem manuale w tych testach to po 2/3 dniach był ban. A commentów stawiałem może z 20 dziennie, pilnowałem swojej proxy, ten sam mail itd. Dodatkowo jak SB przy komentowaniu dostaje biały ekran albo górę (oznaka bana w A.) to zwraca posted. Od taka szybka refleksja w ramach dzielenia się doświadczeniem. ps. blastuj BE, a jak koniecznie chcesz WP to niestety musisz dodatkowo szukać tych z wyłączonym Akismetem, a niestety ten nazi plugin jest dodawana przecież do instalki WP i każdy (nawet niezorientowany) go ma.
-
Wrzuciłem to do ich supportu, przy okazji zobaczę czy jest tak dobry i szybki jak się chwalą. Jak uda mi się rozwiązać problem wrzucę doświadczenia na forum. Dzięki za zainteresowanie i pomoc.
-
Bo harvestowane proxy są do xxxx, za przeproszeniem i stąd masz ten efekt. To nie proxy. Prosty test: 10 urli w manulu 8 indeks, 2 poza. W SB w proxach znalazł tylko 1 site. Bez proxy (na mojej nie spalonej bo to raptem 10 zapytań) to samo.
-
Na razie jadę odsianymi proxami z SB. Problem jest jednak taki, że bez nich (bez proxy) jest tak samo. Nie wiem, czy walić go od razu z łopaty i przeinstalowywać. Nie wiem jak było wcześniej, bo nie korzystałem z tego. Teraz robię testy z Rapid Indexerem i wyszedł taki kwiatek... Problem jest oczywiście taki, że nie łapie poprawnie site: i zwraca not found tam gdzie przy manualu site: zwraca stronę.
-
Macie może doświadczenie z fatalnym działaniem Google Indexed check. Z tego co wyciągnąłem z G. wiem, że to dosyć powszechny problem. Czy jest na to jakiś znany sposób, czy "płakać" od razu do supportu? Za rady wpisywania ręcznie w G. site: z góry dziękuję, no chyba, że ktoś ma cały dzień i chciałby pomagać Robota na cały etat.
-
Wielkie dzięki uratowałeś mi sporo czasu.
-
Osobiście się tym nie przejmuję, ale możesz sobie poradzić wbudowanym linkcheckerem i przejechać listę przed nowym postowaniem szukając swoich adresów. Trochę niepotrzebna strata czasu, który właśnie chcę zaoszczędzić filtrując te dane. Ale dzięki.
-
Jak radzicie sobie z filtrowaniem nowych danych z już posiadaną bazą postawionych commentów itd. Chodzi o to, żeby już po samych harveście porównać otrzymane wyniki z już opublikowanymi/zamieszczonymi wpisami, żeby nie tracić czasu na niepotrzebne postowanie. Nie chodzi tutaj o proste filtrowanie dupów przez SB, ale o całkowite wyeliminowanie z listy starych postów.
-
Fakt, że na planktonie seo można się spokojnie żywić. Zarzuca się wędkę i łapie się potem dobre linki. A propos aksimet to czy przy manualu z przeglądarki na wyłuskanych dofollow na WP trzeba się silić na proxy, czy można jechać i tylko codziennie resetować modem (ogólnie chodzi o wasze doświadczenia ze spalonymi domenami). Pytam, bo nie wiem, czy ustawiać i bawić się z Foxy Proxy. Z góry dzięki
-
Kilkanaście artykułów tygodniowo. Tematyka artykuły obronne. Arty 100% unikaty, ładna stylistyka i 0 byków Za dobre precle mogę dać również zniżkę w pozycjonowanym sklepie. -> PW. Pozdrawiam