Skocz do zawartości

Propozycja - przykłady "złego linkowania"


Beerbant

Rekomendowane odpowiedzi

  • Odpowiedzi 51
  • Dodano
  • Ostatniej odpowiedzi

Za niedługo będą krążyły na sprzedaż listy linków które google podaje w webmasters :)

Przecież są od dawna na PiO.

Agencja marketingowa Semgence istnieje na rynku od 2018 i odpowiada za prowadzenie działań SEO dla wielu firm małych i dużych. Prowadzimy też kampanie Google Ads - niedawno zostaliśmy sie Partnerem Google spełniając odpowiednie kryteria. Betapoint

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Odnoszę wrażenie, że kolejność niektórych wyników w G. są losowane z pewnej ograniczonej i wyselekcjonowanej puli, jednorazowo na ileś tygodni a w takiej sytuacji raczej sieci neuronowe nie pomogą, błąd będzie rozjeżdżał w różnych kierunkach zamiast dążyć do zera

To wydaje się całkowicie logiczne i nieuniknione. Wystarczy zastanowić się nad procesem dystrybucji informacji dokonywanej w oparciu o szukajkę. Liczba zarejestrowanych domen internetowych w ostatnim dziesięcioleciu wzrosła dziesięciokrotnie. (tak w przybliżeniu z 64 mln do 640 mln) Praktyka użytkowników internetu niezmiennie sprowadza się jednak do korzystania z 10 wyników podanych na pierwszej stronie szukajki. Można jednak założyć, iż realna liczba wartościowych stron wzrasta proporcjonalnie do ogólnej liczby witryn. TOP10 staje się tutaj wąskim gardłem przepływu informacji. Pewna rotacja uwzględniająca witryny z pierwszych 20-30 wyników ma w tym kontekście sens. Oczywiście nie będzie to rotacja przypadkowa. Częstotliwość i wielkość "skoków" danego wyniku zależeć będzie od bezwzględnej wartości nadanej przez algorytm,a przy dużej przewadze jednej strony nad pozostałymi dana domena może zostać wyłączona z mechanizmu rotacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Fancy - dużo jest prawdy w tym co napisałeś, oprócz czynników rankingujących bezpośednio, jest kilka czynników spoza tego obszaru => dlatego nie ma szans na żadne neurony.

Dodatkowo, zauważcie ważną rzecz, zmiana procentowa udzialu jednego parametru powoduje przymusową zmianę pozostałych parametrów.

Jest to bardzo ważne i warto to zrozumieć: przykładowo dzisiaj waga tego, że link jest otoczony tekstem pogrubionym w którym znajdują się synonimiczne frazy wpływa na pozycję w 20%. Wystarczy dorzucić kolejny czynnik zmenijeszając wartość starego z 20 do np. 5% i już "nic nie wiemy" - ponieważ te 15% które zostało możemy dać tylko jednemu parametrowi, albo 10 różnym.

W google nic nie ginie - dzisiaj duży nacisk kładzie się na wybicie DC(także linków), ale MUSI to być kosztem innych czynników, które są przez ten czas dyskryminowane, czyli np. spada wartość super domeny z której pozyskaliśmy linka, miesiąc temu za ten link byłby top - a dzisiaj(właśnie "chwiowo") go nie będzie itd.

Ogólnie, nie da się przewidzieć zachowania google, niczym. Możemy tylko na bieżąco testować to co działa co nie i w jakim stopniu, będąc pewnym że za miesiąc/trzy będzie powtórka z rozgrywki.

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności