Skocz do zawartości

Czy filtr algorytmiczny idzie zawsze zdjąć?


dervill

Rekomendowane odpowiedzi

Straseusz, staram się patrzeć całościowo i próbuję zrozumieć Google chociaż wiem że to niemożliwe.

Moje działania zawsze będą tylko reakcją na ich działania.

Ale wracając do rozmowy, gdy pali się dom to gasisz i ratujesz co się da,

a nie wdajesz się w teoretyczne dywagacje nt. bezpieczeństwa p.poż ;-)

Dostaję powiadomienie, analizuję backlinki, zgłaszam część i strona wraca szybciej lub wolniej.

Ja jestem prosty chłop ze wsi ;-)

Bing.com jest szybszy, daje lepsze wyniki. Mniej szpieguje.

Google uczy, Google radzi, Google nigdy nas nie zdradzi.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 51
  • Dodano
  • Ostatniej odpowiedzi

Jasne, a później płacz, że Google ukarało za niewielki procent linków ;-)

A ja sie odniosłem do powyższego w moich "dywaganiach" -> ja wiem, że robi się jak napisałem i nie ma z tego problemów(jak mają być to tak czy siak będą, czy będziesz miał 1% spamu czy 10%, czy nawet 100% ;)

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach


Ale wracając do rozmowy, gdy pali się dom to gasisz i ratujesz co się da,

a nie wdajesz się w teoretyczne dywagacje nt. bezpieczeństwa p.poż ;-)

Nawiązując do Twojego porównania, nie prościej jest zainwestować w dobry system przeciwpożarowy lub zbudować dom z mało palnych materiałów?

Jak robisz seo to nie możesz patrzeć na to przez pryzmat jednej strony. Ręczne działania zawsze były i w powiadomieniach często były dobre jakościowo linki. Nie od dzisiaj wiadomo, że google losowo wrzuca do raportów różne linki, również wartościowe. Więc nadużywanie DT, doprowadziło do wyniszczenia rynku, oflagowania wielu domen. A później jest płacz i zgrzytanie zębami, że nie idzie.

@straseusz dobrze mówi, że nie ma to znaczenia ile będziesz miał spamowych linków, ważne z jakich domen. Jak oflagowanych, namiętnie zgłaszanych do DT, to na bank prędzej czy później ręczne działania będziesz miał.

Jak będziesz linkował z takich miejsc, które nie były zgłaszane, to może być to totalnym spamem, zgłoszeń mieć nie będziesz ;)

Odnośnik do komentarza
Udostępnij na innych stronach

To nie ma nic do rzeczy przy filtrze algo. Znaczenie ma samo linkowanie, przede wszystkim ilość linków i rozłożenie po anchorach

Znaczenie linkowania mają filtry odpowiedzialny za update zwany Pingwinem. Są jeszcze inne update-y, między innymi jak Panda i Koliber. Tu również można zaliczyć filtr algorytmiczny nie związany z linkowaniem.

Filtr algorytmiczny to obojętnie jaki nałożony z automatu (najczęściej przy większych aktualizacjach). Z każdego takie filtra da się wyjść po odpowiednim czasie i zmianach.Ja co prawda wiele ich nie miałem, ale skuteczność wyjścia równa jest 100%.

Odnośnik do komentarza
Udostępnij na innych stronach

Sełomajster, to o czym mówisz to absolutna racja tylko nie niewiele z tego wynika.

W/g tego co mówisz to jakiekolwiek publiczne źródło linków będzie spalone i bezwartościowe/wartościowe do czasu.

Wyjściem jest prywatne zaplecze, ale na nie stać tylko dużych,

lub niewielkie grupy wzajemnej adoracji, ale w miarę wzrostu grupy

może pojawić się czarna owca która zechce coś sobie dopalić/wzmocnić.

A tak na marginesie to:

Prywatne zaplecze to też niebezpieczeństwo że konkurencja znajdzie i "pomoże".

Do mnie kiedyś zadzwonił klient i zapytał o pozycjonowanie bo skończyła mu się umowa z firmą.

Poprosiłem o dane do GWT i tam jak na dłoni masz wszystko, dużo fajnych rzeczy znalazłem tam przypadkiem których nie było w żadnych narzędziach.

Bing.com jest szybszy, daje lepsze wyniki. Mniej szpieguje.

Google uczy, Google radzi, Google nigdy nas nie zdradzi.

Odnośnik do komentarza
Udostępnij na innych stronach


W/g tego co mówisz to jakiekolwiek publiczne źródło linków będzie spalone i bezwartościowe/wartościowe do czasu.

Nie do końca... wiele publicznych miejsc pomimo braku wartości white seowców, ma zaj... moc. Spytasz dlaczego? Bo żaden maniak DT się do nich nie dorwał :D


Prywatne zaplecze to też niebezpieczeństwo że konkurencja znajdzie i "pomoże".
Do mnie kiedyś zadzwonił klient i zapytał o pozycjonowanie bo skończyła mu się umowa z firmą.
Poprosiłem o dane do GWT i tam jak na dłoni masz wszystko, dużo fajnych rzeczy znalazłem tam przypadkiem których nie było w żadnych narzędziach.

Masz na tyle duże doświadczenie, że powinieneś wiedzieć, że takie zaplecze można ukryć. GWT pokazuje zaledwie skrawek.

Dobrze skryte zaplecze jest nie do wykrycia przez 98% Seowców. A te 2 % wie jak posiadaną wiedzę wykorzystać :D

Odnośnik do komentarza
Udostępnij na innych stronach


Dobrze skryte zaplecze jest nie do wykrycia przez 98% Seowców. A te 2 % wie jak posiadaną wiedzę wykorzystać

Wszystko można znaleźć, kwestia umiejętności, narzędzi i czasu. Ale najważniejsza jest wiedza.

Mnie wystarczyło kilka domen w GWT a reszta już poszła jak po sznurku.

Nie twierdzę oczywiście, że znalazłem wszystko ale myślę, że prawie wszystko.



nie prościej jest zainwestować w dobry system przeciwpożarowy lub zbudować dom z mało palnych materiałów

Pod warunkiem, że używając "niepalnych" materiałów nie okażą się "łatwopalne" za kilka lat ;-)

Bing.com jest szybszy, daje lepsze wyniki. Mniej szpieguje.

Google uczy, Google radzi, Google nigdy nas nie zdradzi.

Odnośnik do komentarza
Udostępnij na innych stronach


żywając "niepalnych" materiałów nie okażą się "łatwopalne" za kilka lat ;-)

Tego niestety nikt nie jest w stanie przewidzieć.

Nasza praca polega głównie na odczytywaniu algorytmu tu i teraz. Tak jak za kilka lat będą brane inne czynniki pod uwagę, tak techniki które teraz stosujemy, będziemy musieli zastąpić innymi.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

21 października dostałem filtr na long tail spadły frazy z top 10 na okolice 90 pozycji.

Ruch z wyszukiwarek spadł o około 95% głównie na frazy long tail.

po wpisaniu nazwy witryny strona jest na 1 m-cu, w przypadku long tail na bardzo dalekim

Nie jestem pozycjonerem, od kilku lat nie linkowałem tej strony, żyła sobie swoim życiem,

Jedyne zmiany jakie wprowadzam to te dla użytkowników a nie dla googla.

21 października około 22:00 postawiłem kopie strony (forum dyskusyjne vbulletin z dodatkiem vbseo)

na oddzielnej subdomenie.

Kopie strony wykonałem na potrzeby testowania nowych zmian.

Dopiero teraz skojarzyłem że to mogło być powodem fltra, automatycznie jeszcze tego samego dnia spadł ruch.

Były tam zadania crona które pingowały do google liste tematów.

Podejrzewam że wszystko się zdublowało i to było powodem filtra.

Dzisiaj czyli po 5 dniach od nałożenia filtra usunełem kopie strony.

Czy mam gdzieś pisać o zdjęcie filtra czy cierpliwie czekać ? Po jakim czasie strona wraca na pozycje ?

Czy miał ktoś podobny przypadek ?

Odnośnik do komentarza
Udostępnij na innych stronach

Jeżeli w GWT nie masz powiadomienia o nałożonych karach ręcznych to nie pozostaje nic innego jak naprawić szkody i czekać do następnej aktualizacji algorytmu.

czyli można jechać na spamie i wyłanczać strone tylko w dniu aktualizacji algorytmu i google tego nie zafiltruje ?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności