Skocz do zawartości

MaxRank - Nowy czynnik wpływający na Rank


okazwłoka

Rekomendowane odpowiedzi

Myślę dość poważnie nad wprowadzeniem nowego parametru.

 

Do systemu byłby wprowadzony suwak do ręcznego ograniczenia stronie Ranku. Parametr nazwijmy MaxRank, byłby to parametr nadawany przez moderatora. Domyślnie MaxRank byłby ustawiony na 10.

 

Pod uwagę byłaby brana jakość podlinkowania i na tej podstawie ustalany MaxRank dla strony (czyli parametry majestic nadal decydowałby o ranku, ale moderator ustalałby stronie maksymalny rank jaki może otrzymać).

 

 

 

Z jakiego powodu MaxRank? Punktowanie na podstawie parametrów z majestic daje spore możliwości manipulacji i niestety niektórzy użytkownicy zaczęli to wykorzystywać (np. podnosząc parametry rotacją). Są rzeczy, które tylko "oko" może w miarę ocenić.

 

Zapraszam do dyskusji, bo to piszę trochę na gorąco, ale w najbliższych dniach o tym będę myślał na spokojnie, co coś trzeba zrobić :) 

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Dla wydawców potrzebna będzie lista rzeczy, które wpływają na obniżenie tego parametru. Jeśli np. rotacja to coś złego to ok, linkuje jedynie stałymi odnośnikami. Jeśli strona będzie miała obniżony rank to dobrze jest wiedzieć dlaczego. W przeciwnym razie nie będzie możliwa poprawa a przy kolejnych stronach powtarzane będą błędy ;/

Odnośnik do komentarza
Udostępnij na innych stronach

Oczywiście lista byłaby przygotowana. W sumie po to stworzyłem ten temat żeby wspólnie ustalić jakie czynniki brać pod uwagę.

Moje propozycje są takie:

- linkowanie strony systemowej rotacją
- linki ze spamowych miejsc gdzie są linki "do wszystkiego co najgorsze"
- linki nofollow (np. komentarze w znaczącej ilości)
 

  • Like 1
Odnośnik do komentarza
Udostępnij na innych stronach

Przykładowo, nie korzystam z "- linki nofollow (np. komentarze w znaczącej ilości)". Co jeśli "przyjazna" konkurencja lub nawet użytkownik systemu, który ma opublikowane linki na moich stronach puści blasta z "linki ze spamowych miejsc gdzie są linki "do wszystkiego co najgorsze"". Jak się przed tym bronić?

Odnośnik do komentarza
Udostępnij na innych stronach

To jest podstawowy problem. Ale "trochę" stron w systemie mam i jeszcze nikt mi nie chciał sam z siebie podlinkować żadną ze stron? W zasadzie obawy o podlinkowanie śmieciami może mieć każdy, kto umieszcza jakąkolwiek stronę w systemie, ale jeszcze nikt mi się nie skarżył (a system ma ponad 3 lata).

 

Ale załóżmy, że ktoś nam nabrudzi. W takim przypadku będziemy się starać odfiltrować takie linki zmniejszając odpowiednio RD i ocenić czy linki miały wpływ na parametry TF oraz CF (czy nastąpiła zmiana parametrów po przyłożeniu linków).

 

Ogólnie nie jest mi na rękę wprowadzanie sprawdzania jakości podlinkowania, bo mocno zwiększy to potrzebny czas na moderację. Ale to powinno ograniczyć sztucznie napompowane ranki i wyjść na korzyść systemu.

Odnośnik do komentarza
Udostępnij na innych stronach

Edit.

 

OK, ocenie mogłyby podlegać takie sprawy jak:

 

1. Czy linki istnieją (przede wszystkim sprawdzana rotacja).

2. Zróżnicowanie stron z których pochodzą linki.

3. Zróżnicowanie umiejscowienia linków.
4. Otoczenie linków (np. ilość innych linków, zaspamowanie strony z linkiem).
5. rel linków (procent linków innych niż dofollow ale z odniesieniem do ogólnej ilości domen linkujących).

 

Jeśli są jakieś propozycje, pytania to jest czas żeby jeszcze omówić.

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Później się może rozpiszę ;) 

Póki co dałbym jeszcze inny parametr na stałe, z automatu.

Wiek witryny. 

Przejrzałem sobie kilka linków i wychodzi na to, że rank 10 to sobie można trzasnąć ot tak od ręki, tydzień - dwa i jest na zupełnie nowej domenie. Max 1 punkt ranku za każdy miesiąc posiadania widoczności/linków przez domenę? Czyli do 10 dobijamy po niecałym roku.

Oczywiście jak ktoś wrzuci roczną domenę (rok widoczności linków a nie zarejestrowana tylko rok wcześniej) to może od razu mieć 10.

dymna.jpg
Odnośnik do komentarza
Udostępnij na innych stronach

Zgadzam się, nowa domena bez historii co najmniej przez kilka miesięcy nie jest w stanie dać kopa (przynajmniej w realiach swl gdzie nikt nie zdobędzie super linków).

 

Ale powstanie tu problem dość dużej zmiany kosztu linków (co miesiąc będzie wzrost).

Myślę, że tu zastosowanie dodatkowego parametru w projektach linkowania w postaci minimalnego wieku domeny rozwiązałby problem.

Odnośnik do komentarza
Udostępnij na innych stronach

Największym problemem jest rotacja słabych, szybko podbijanych linkowaniem domen. Domeny są nie cały rok i są usuwane. Do tego zachęca bonus dla nowych domen. Użytkownik ze starą stroną już nie może na to liczyć. Ja bym się bardziej skupił na bonusie za czas strony (podstrony) w systemie niż na bonusie dla nowych.  Tym suwakiem to każdy będzie obniżał nie swoje strony i tak to będzie działało.

Odnośnik do komentarza
Udostępnij na innych stronach

Masz możliwość sprawdzenia zaindeksowanych podstron vs wszystkie podstrony w serwisie? Trochę to kombinowanie ale... patrzę po tych "wybitnych" serwisach zrobionych rotacją, site pewnie na poziomie kilkuset-kilku tysięcy stron, w indeksie 1-20. Czyli pewnie stara strona przewalona pod nową domenę, co najmniej recykling treści. 
I popatrzyłem na te stronki wzajemnie się linkujące - mają te same teksty na wielu domenach...

dymna.jpg
Odnośnik do komentarza
Udostępnij na innych stronach

Bonus dla nowych stron nie jest nawet wystarczający do pokrycia kosztu postawienia strony, to jest bonus dający czas na spokojne podlinkowanie. Myślę, że to w systemie nie jest problem.

 

Jeśli piszemy o tych samych stronach, to one mają mało podstron, a mały site ze względu na to że to są zupełnie nowe strony. Z czasem tego site nabiorą pewnie.

 

Duplikacja tekstów jest sprawdzana, takie strony powinno wychwycić. Przyjrzę się dokładnie temu.

Odnośnik do komentarza
Udostępnij na innych stronach

Do przemyśleń, bo ja nie wiem jak mogłoby to wpłynąć i czy w ogóle na cokolwiek.
- Masz wgląd w cache wszystkich podstron w systemie, czyli też dat ostatniego cache. Można ustalić medianę dla każdej strony i ona będzie mniej więcej odzwierciedlała jak często bot G reindeksuje daną stronę. Im mediana niższa (mniej dni minęło od daty cache), tym strona chyba lepsza. Ustalić ranking wszystkich stron i punktować na jego podstawie.
A może w ogóle zrobić globalny ranking wszystkich stron oparty o jakieś parametry (każdy parametr osobny ranking i jakaś suma rankingów dawałaby ostateczne miejsce danej strony na liście wszystkich stron) i punktować zależnie od tego rankingu. Pierwsze 10% stron - rank 10. Drugie 10% stron - rank 9, itd.

To mogłoby zachęcić do wbijania stron jak najwyżej w rankingu, ale nie spowodowałoby zbyt dużej „inflacji”, bo liczba każdego ranku byłaby ograniczona do tych 10% z liczby stron. Albo zabiłoby to system, bo nie opłacałoby się w ogóle już dodawać świeżynek. Bo w teorii już można byłoby zapomnieć o ranku 10 na dzień dobry. Ale też możliwe, ze ranki 9, 8, 7 też byłyby całkiem fajne strony do linkowania (dawniej miałyby rank 10, ale ciut brakuje i się nie łapią do tych najlepszych z najlepszych).
A na pewno by to spowodowało rewolucję i sam bym się pewnie wnerwił na jej wynik ?. Dobra, czas do spania, bo się styki zaczynają przegrzewać.

Edytowane przez ttah
  • Like 2
Odnośnik do komentarza
Udostępnij na innych stronach

Taki pomysł kiedyś był z propoecjonalnym rankowaniem, poważniej się nad tym nie zastanawiałem :)  Jest ciekawy, ale trudny do przewidzenia :) Przy dodawaniu nowych stron więcej zyskuje wyższy rank bez innych dodatkowych ruchów. Czyli z czasem mogłoby się okazać,  że kilka najniższych ranków to zupełnie niepodlinkowane strony. 

 

Podoba mi się pomysł z cache, może nie tak drastycznie że to cache wyznacza rank, ale jako włączenie cache do obliczania ranku to na pewno bardzo dobry pomysł.

 

Edit.

Na razie medianę cache wprowadzę jako parametr dodatkowy przy wyborze linków. 

 

A później się zobaczy. Teraz najważniejsze jest wprowadzenie "ręcznej" oceny jakości podlinkowania, która ma na celu zweryfikowanie tego co oblicza dość kulawo majestic.

Edytowane przez okazwłoka
Odnośnik do komentarza
Udostępnij na innych stronach

Może na razie krótkie podsumowanie tego, jak na teraz mogłoby to wyglądać:

 

1. Czy linki istnieją (przede wszystkim sprawdzana rotacja).
W przypadku wykrycia rotacji MaxRank obniżany w zależności od stopnia podlinkowania rotacją (w stosunku do stałych linków).

2. Zróżnicowanie stron z których pochodzą linki.
W przypadku małego zróżnicowania stron z których pochodzą linki (np. linki z jednej farmy linków, linki z samych profilów), ogólnie w przypadku bardzo jednorodnego profilu linków.
3. Zróżnicowanie umiejscowienia linków.
Np. same linki z sidebarów z innymi linkami, czy też przeważająca większość może być sygnałem do obniżenia MaxRank.

4. Otoczenie linków (np. ilość innych linków, zaspamowanie strony z linkiem).
Np. w znacznych ilościach linki ze strony z setkami komentarzy spamowych, z zaspamowanych ksiąg itd.

5. rel linków (procent linków innych niż dofollow ale z odniesieniem do ogólnej ilości domen linkujących).
Strony, które mają większość linków innych niż dofollow mogą mieć obniżony MaxRank.

 

 

To jak bardzo i czy zostanie obniżony MaxRank będzie zależałop od stopnia występowania czynników, o których mowa w punktach powyżej. Będzie oczywiście w tej sprawie komunikacja (każdy obniżony MaxRank będzie miał komentarz albo obrazowo skalę dla każdego punktu) tak, żeby było wiadomo dlaczego jakaś strona oberwała. 

 

Gdyby były jakieś pytania do tych punktów, potrzeba było coś doprecyzować to śmiało proszę dopytywać.

 

Odnośnik do komentarza
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności