Skocz do zawartości

Propozycja - przykłady "złego linkowania"


Beerbant

Rekomendowane odpowiedzi

Może by tak spróbować "rozszyfrować" na podstawie wspólnych większościowych parametrów kryteria stron na podstawie których podają te przykłady "złego linkowania" ?? Cholera jak dotychczas nie byli łaskawi mnie czymś takim uraczyć więc nie mam bladego pojęcia ;).

Może rzeczywiście wymienione przykłady to masówka seokatowska czy precle strecle ?

Parametry takie jak :

duża ilość linków wychodzących, niska jakość merytoryczna tekstu/debilne teksty, wygląd, jakość linków zwrotnych, schematyzm konstrukcji witryny i co tam jeszcze ?

Może odpowiedzi na te pytania pozwoliłyby na robienie lepszych "myków" ?

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 51
  • Dodano
  • Ostatniej odpowiedzi

też mi łobuzy przykładu nie podali a prosiłem się o niego pierwszy raz chyba ze 2-3 lata temu, prosiłem również by te "be" linki ich cudowne algo ignorowało. Również mnie i w tej kwestii olali... Więc jak ktoś potraktowany przez G. poważniej się podzieli to rónież bym zerknął :)

Odnośnik do komentarza
Udostępnij na innych stronach

Ja kiedyś bardzo luźno myślałem o zaprzęgnięciu do tego celu metod sztucznej inteligencji.

System monitorowałby X domen wyznaczając dla nich ustalone przez nas parametry onsite + na tyle, na ile to możliwe monitorowałby przyrosty linków i inne czynniki.

Jednocześnie byłyby monitorowane zmiany pozycji tych domen na określone frazy.

Oczywiście trzeba by było jeszcze jako pewien parametr uwzględnić np. działania konkurencji pozycjonującej się na te same frazy.

W ten sposób mielibyśmy zestaw danych do nauczenia np. sieci neuronowej, z czasem pojawiałyby się kolejne zestawy danych pozwalających na jej testowanie i korygowanie błędów.

Taki system pomagałby znaleźć konfiguracje parametrów dających wzrosty pozycji w Google oraz dawał jakąś szansę predykcji efektów danej strategii przed jej zastosowaniem. ;)

Tak to wygląda w teorii, nie zastanawiałem się nad tym szczegółowo. :)

A może nowy zamknięty system "testów", gdzie zainteresowani dostawaliby za abonament info o tym, co jest bezpieczne, a co nie? :)

Odnośnik do komentarza
Udostępnij na innych stronach

A może nowy zamknięty system "testów", gdzie zainteresowani dostawaliby za abonament info o tym, co jest bezpieczne, a co nie?

Dobry pomysł ;) , pomimo tego, że na chwilę obecną jest tyle sprzecznych informacji w stylu "taka dobra witryna i wartościowa" a na niej okazuje się są teksty w stylu "Pszyszli my Jola pogaworzyć o niezwykle oraz nieincydentanie złożoności problematyk kabina prysznicowa używanych z grypa katalogów" :D

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

Może niepotrzebnie użyłem słowo "testy", bo nie byłoby "planowanych" testów jako takich, tylko szczegółowa obserwacja odpowiednio dużej ilości TOPowych domen w wybranych branżach.

Poszukiwanie czynników sukcesu/porażki spadałoby na sztuczną inteligencję.

Dyskusyjną kwestią jest oczywiście np. jakość tekstów na stronie. Można stworzyć bardzo dobry model języka i odrzucać najgorsze teksty "statystycznie", większym problemem wydaje się być rozróżnienie poziomu merytorycznego (w kwestii semantycznej, treści przekazu) między tekstem preclowym a dobrym wpisem na blogu. Tutaj ewentualnie rola człowieka, ale czy dużym problemem jest znaleźć kogoś, kto w skali 0-10 oceni raz w miesiącu poziom treści na np. 1000 domen? Chyba nie.

Powyższe odnoszę do sytuacji, w których domena spada ze względu na podkablowanie jej jako spam/wizytę SQT - roboty raczej tak "głęboko" w jakość tekstów nie zaglądają. ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Treść, wygląd, schematyzm ?

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

Może rzeczywiście wymienione przykłady to masówka seokatowska czy precle strecle ?

Tak, podejrzewam że największą winą za te "spustoszenia" są w kolejnośći:

1. seokatalogi

2. precle

3. wp-katy

Jest to oczywiste, nie ma co dyskutować nawet, że tak nie jest. Oczywiście te tezy są poparte latami doświadczeń algorytmu, który właśnie niedawno się zmienił :lol:

A tak poważnie - info dla strony o złym linku, z zaplecza 1 poziomu z 1 linkiem wychodzącym - anchorem, żadnego innego wychodzącego, przed linkiem: "polecamy także:", zapleczówka nie do odróżnienia od zwykłej strony(nie żaden blog z 10 artami po 1k zzs). Zapleczówka o średniej ilości 100 wejść/dziennie, ok. 40% odrzuceń.

Coś to rozjaśnia ? :D

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Treść, wygląd, schematyzm ?

Pewnie dużo wyszłoby w praniu - co do wyglądu/schematyzmu, widzę sposoby na ich parametryzację - pytanie tylko, czy można tak umiejętnie je sparamertyzować, by uzyskać zbiory rozłączne stron lubianych przez Google i nielubianych (ew. w korelacji z innymi parametrami). Myślę, że tak, ale trzeba by było zobaczyć to "w praniu".

Trochę się wciąłem z takim luźnym pomysłem - może nie do końca się to zbiega z tematem wątku. Tak czy inaczej - wydaje mi się, że mogłoby to być ciekawe właśnie ze względu na to, że w miom odczuciu brakuje obiektywnych informacji na temat tego, co "działa", a co już nie (chociaż w pewnym sensie to dobrze ;) ). Wiele osób poświęca czas i środki na testy, ale nawet przy największych nakładach na nie trudno mieć odpowiedni przegląd sytuacji. Zbyt dużo pozostaje w sferze domysłów. ;)

Oczywiście daleka droga od luźnej propozycji takiego systemu do jego wdrożenia. Ale może kiedyś? ;)

Od biedy można wrzucić taki pomysł na jakiś kickstarter i zobaczyć, co z tego wyjdzie. :D

Odnośnik do komentarza
Udostępnij na innych stronach

A tak poważnie - info dla strony o złym linku, z zaplecza 1 poziomu z 1 linkiem wychodzącym - anchorem, żadnego innego wychodzącego, przed linkiem: "polecamy także:", zapleczówka nie do odróżnienia od zwykłej strony(nie żaden blog z 10 artami po 1k zzs). Zapleczówka o średniej ilości 100 wejść/dziennie, ok. 40% odrzuceń.

Coś to rozjaśnia ?

Doopa tam rozjaśnia :D raz, że to "subiekt" a poza tym jeden link z całego serwisu ? (może sukinkoty uczulili się na frazy typu "polecamy" ?) ;)

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

Niezłe jajca, Berbuś pyta "Jak żyć?" :hahaha:

"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Odnośnik do komentarza
Udostępnij na innych stronach

Dziki rysio, pomysl jest bardzo dobry z sieciami, stworzylo by sie kopie algorytmu google, ale black box, bez znajomosci parametrow, po dostrojeniu by model dawal takie same wyniki. Potem wyjmujemy parmetry, o ktorych kazdy pozycjoner marzy. Wykonalne

Najlepszy portal branży gier liczbowych Lotto to: Wyniki Lotto NET

Odnośnik do komentarza
Udostępnij na innych stronach

Jeżeli ktoś podeśle spamraport albo skorzysta z disavow tool, wystarczy rzut oka googlersa na wybraną podstronę, aby stwierdzić, czy anchor jest naturalny. Ptaszek i leci powiadomienie.

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli próba stworzenia tego co stworzyło google:) Panowie przecież to co oni robią to wykorzystanie sieci neuronowych w pełnej krasie. Nielubiane tak bardzo narzędzie do zrzekania się linków służyło dostarczeniu danych do nauczenia sieci. Ich skuteczność rośnie z każdym zgłoszeniem linków. Tak naprawdę sposobem na to było podawanie tych najbardziej naturalnych linków wtedy sieć byłaby głupia. Ci, którzy zgłaszali linki odwalili za nich robotę, które nie potrafili wykonać we własnym zakresie ze względu na skalę. Wcześniej stworzyli profil witryny - spam raporty konkretnych stron. Efekty działania sieci znamy jak Pingwina i Pandę. Każda kolejna wersja jest po dawce poprawionych danych uczenia sieci.

Odtworzenie sieci w drugą stronę mało realne w praktyce niewykonalne.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie do końca chodzi mi o sieć, która pokazywałaby, które linki są złe, tylko raczej o taką, która "rozgryzłaby" w pewnym stopniu algorytm Google - bazując na najbardziej selektywnych parametrach (200 czy 400 parametrów w takim projekcie raczej doprowadziłoby do niestabilnych wyników, raczej myślę o 20-40 parametrach (choć to już sporo)).

Narzędzie raczej umiałoby automatycznie pokazać, co było przyczyną wzrostu/spadku danej witryny na konkretne frazy + ewaluować "jakość" strategii pozycjonowania danej witryny przed jej realizacją.

Oczywiście realizacja wymaga czasu + środków i dopiero praktyka pokazałaby, ile jest taki projekt warty.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności