Skocz do zawartości

Czyzby era spamu, zaplecza, katalogów się skończyła?


roman_tyk

Rekomendowane odpowiedzi

Gdybanie i nic więcej. Chyba ta na zbyt długa aktualizacja PR uderza ludziom do głowy :)

Nikt nie obiecywał że algorytmy będą zawsze takie same, jak zmienią się algorytmy to zmienią sie metody pozycjonowania.

Na razie nie ma co biadolić.

Odnośnik do komentarza
Udostępnij na innych stronach

Od jakiegoś czasu zawodowi pozycjonerzy zaczynają przeczuwać kolejne przełomowe zmiany w algorytmie Google.
Wg mnie są.

Ale bez takich głupot jak analytics, G toolbar itd...

Jeśli strona ktore ma BL na głupoty i linkuje dalej głupoty do innej strony - to tematyczne link - bez G toolbar, analytics itd

Odnośnik do komentarza
Udostępnij na innych stronach

linki ze spamów, systemów wymiany linktów itp "zdychają" już od kilku lat. Tylko czemu własnie linkom przyznaje się coraz większą wagę? :>

Mnie osobiście wprowadzenie algorytmu, że liczą się tylko linki klikalne niespecjalnie zmartwi - przyjdzie dostawić dodatkowy serwer, napisać pare programów i problem rozwiązany. Ceny wzrosną, małe firmy seo wytnie z rynku, ale jedyną istotną zmianą będzie to, ze google zostanie zmuszone do dostawienia nowych data centers - czyli zwiększy swoje koszta zyskując, co najwyżej, ubicie zyjącej z bezsensa drobnicy.

Odnośnik do komentarza
Udostępnij na innych stronach

Normalnie coraz ciężej życ w świecie w którym mamy setki "wynalascóf" i coraz mniej ludzi myślących.

O bezsensie takiego algorytmu już dawno pisałem, zreszta nie trzeba być specjalnie bystrym, żeby zdać sobie sprawę ze sama idea nie ma sensu: "wyżej będę te wyniki, które są klikane. Ale klikane bedą te które są wyżej". O czym nam mówi kliklaność? - ano o tym, że title i description są fajne - ale nic o samej stronie.

Inna sprawa, że twórca tego artykułu powołał się na dwa inne które piszą nie o "kilkaniu" tylko o mocy stron posiadających własny ruch. To stwierdzenie jak dla mnie też trudno udownić, a to dlatego, że od wiąże się bezpośrednio z tym co wiemy od lat - linki na "mocnych" stronach są lepsze od tych na "słabych", a to własnie "mocnym" stronom grozi ruch - więc zweryfikowanie tych "sensacji" wydaje się niemożliwe ze w zględu na współistnienie faktu: "jakość i moc strony" oraz "ruch na stronie". Ale zawsze analizując algorytm musimy wytsrzegać się sensacji domorosłych naukofców którzy w wyniku badań są w stanie stwierdzić -> "Kudzie z żółtymi palcami mają większe skłonności do nałogowego palenia tytoniu".

Odnośnik do komentarza
Udostępnij na innych stronach

słuchajcie dalej bogatego ojca, bogatej matki, dzidka, wnuka, córki, syna i tak dalej jak tam zwą tych wszystkich wyznawców goorumarketingu :(

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

Cos sie zmieni ale nie dzis, nie jutro, mam nadzieje nie za 10 lat, Szukajka jest i tak chyba najuzyteczniejszym wynalazkiem 21wieku i mimo spamu tak zostanie bo jak ktos umie szukac to znajdzie to czego szuka. Spam zarabia, duzo ludzi z tego zyje i tego nie mozna ukrucic tak jednym ruchem, mysle, ze Google jest tego swiadome - ma na swoich barkach odpowiedzialnosc za zycie setek tysiecy rodzin utrzymywanych przez spamerow na calym swiecie :)

Dla tych co lubią na biało i dla tych co na czarno:
logo_ap.jpg godmodelogo.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Od jakiegoś czasu zawodowi pozycjonerzy zaczynają przeczuwać kolejne przełomowe zmiany w algorytmie Google. Miałyby one polegać na mierzeniu przez G klikalności linków i na tej podstawie nadawaniu tymże linkom mocy. Poczytajcie te teksty wraz z komentarzami:
Raczej nie wydaje mi się. Po pierwsze do takiego mierzenia potrzebny byłby javascript lub redirect na google (redirectu nie ma, js do tego raczej też nie). Jeśli użyto by JS to praktycznie każda strona mogłaby się sama "pozycjonować" korzystając z iframe, to samo z resztą z redirectem. I tu nic nie pomoże, nie da się wyfiltrować sztucznie "nabitych" kliknięć. Po niczym.

Poza tym taki algorytm spowodowałby tylko wysyp spamu a pozycja strony mówiłaby tylko kto ma większy botnet do "symulacji klikania".

Według mnie taka zmiana algorytmu to bardzo dobre posunięcie ze strony googla.

Obowiązkowa instalacja jakiegoś skryptu do mierzenia klikalności to już w ogóle śmiech.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności