Skocz do zawartości

Możliwości Analityczne Robotów Google I Innych.


lokoz.com

Rekomendowane odpowiedzi

Chciałem Wam tylko zwrócić uwagę, że czasami przeceniacie trochę możliwości analityczne robotów Google. Boty muszą mieć względnie proste i szybkie algorytmy analizy ponieważ każdy dodatkowy element do analizowania zabiera jakąś malutką część sekundy z procesorów. Przemnóżcie teraz tą mikro(nano)sekundę przez XXXX bilionów stron/podstron w internecie, których analizę Google musi powtarzać cyklicznie i zrozumiecie, że Wielki Brat nie ma nieograniczonych mocy obliczeniowych. Tym bardziej, że w ciągu ostatnich dwóch lat ich boty zostały dość mocno przeciążone Pandami/Srandami/Pingwinami. Przed tymi zmianami algorytm Google był prosty - znaleziono link na stronie to dorzucamy go do bazy oraz badamy PR i TR.... i tyle.

Podsumowując. Nie ma milionów algorytmów Google na każdą możliwą sytuację. Jest kilkaset algorytmów, a każdy z nich odpowiada za analizę milionów mniej lub bardziej pokrewnych sytuacji.

To tyle moich przemyśleń. Mam nadzieję, że da się mnie zrozumieć ;-)

Hosting dla SEO -> https://www.seolite.pl

 

Odnośnik do komentarza
Udostępnij na innych stronach


Chciałem Wam tylko zwrócić uwagę, że czasami przeceniacie trochę możliwości analityczne robotów Google. Boty muszą mieć względnie proste i szybkie algorytmy analizy ponieważ każdy dodatkowy element do analizowania zabiera jakąś malutką część sekundy z procesorów.

A kiedy dotrze do Ciebie, że to nie boty ustalają ranking i przestaniesz mylić zbieranie danych z ich obróbką, stanie się to dla Ciebie bardziej oczywiste niż kiedykolwiek.

- Przypadek? Wszechświat nie może sobie pozwolić na taki luksus.

Odnośnik do komentarza
Udostępnij na innych stronach

Nadinterpretacja była jest i będzie. Google też chce, aby świat uznawał ich rozwiązania za "Pozaziemskie", "innowacyjne" coś tam coś tam, ale gdzie zysk tam i koszt. Algorytm nad jakim google najbardzie pracuje to Adwords/Adsense i wyciśnięcie ile się da zysku z tego. Wyszukiwarka jest tylko po to, aby najtaniej pokazywać reklamy.

Jeśli chodzi o pandy, pingwiny, króliki - są tylko sposobem, aby zamieszać w wynikach i serwisy na czas odzyskiwania pozycji płaciły za adwords.

Odnośnik do komentarza
Udostępnij na innych stronach

"Roboty Google" w mojej wypowiedzi to skrót myślowy. Załóżmy, że działa to tak: są roboty, które zbierają dane z internetu czyli popularne Googleboty. Są też roboty, które nie wychodzą spoza sieci Google, analizują zebrane przez Googleboty dane i przypisują im jakieś parametry określające teoretyczną wartość poszczególnych (pod)stron. Jeszcze inne roboty na podstawie przypisanych parametrów z "analizatorów" układają to wszystko w ranking.

Nie zmienia to faktu, że każda dodatkowa linijka kodu w algorytmach powoduje konieczność rozbudowywania "mocy obliczeniowych" co z kolei powoduje zwiększenie kosztów działalności. Przy ilości stron, które obecnie istnieją w sieci nawet wielki Google jest ograniczony w zasobach obliczeniowych i NIE MOŻE SOBIE POZWOLIĆ NA ZBYT SKOMPLIKOWANĄ ANALIZĘ ZAWARTOŚCI INTERNETU.

Hosting dla SEO -> https://www.seolite.pl

 

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wiem czy wiesz ale Google od kilku lat posiada komputery kwantowe. Dlatego nie należy mówić o braku mocy obliczeniowej. Tak naprawdę nie wiadomo do czego ich używają. O algo nie wspomnę.

Takie komputery kosztują kilkadziesiąt mln. $$, a więc są w ich zasięgu finansowym.

Głównym celem wyszukiwarek NIE jest dostarczanie trafnych wyników. Głównym celem wyszukiwarek jest dostarczanie zysku.

 

Odnośnik do komentarza
Udostępnij na innych stronach

Hmmmm.... z kwanciakami jest tak, że wszyscy o nich mówią ale nikt ich jeszcze nie widział. Jeżeli istnieją to są w tak wczesnej fazie rozwoju, że nie nadają się do pracy w "warunkach produkcyjnych", a jeżeli się nadają to na 99,9% nie jest to opłacalne.

Hosting dla SEO -> https://www.seolite.pl

 

Odnośnik do komentarza
Udostępnij na innych stronach

"Roboty Google" w mojej wypowiedzi to skrót myślowy.

Zupełnie nieuprawniony, a wręcz głupi. Bot to bardzo prosta programik, który odwiedza strony internetowe i ściąga dane. Dane te są następnie obrabiane w Data Centers. Obejrzyj je sobie i zweryfikuj poglądy: https://www.google.com/search?q=data+center+google&client=firefox&hs=1N7&rls=org.mozilla:en-US:official&source=lnms&tbm=isch&sa=X&ei=xMJPU9GNEaeS0gG9p4CoAQ&ved=0CAgQ_AUoAQ

https://enpundit.com/for-the-first-time-ever-a-look-inside-googles-data-centers/

- Przypadek? Wszechświat nie może sobie pozwolić na taki luksus.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja Wam powiem więcej - moderacja ręczna też nie istnieje. Sprawdzają tylko topowe frazy (loans, pożyczki, viagra itp). Przy zwykłych frazach (hydraulik Bytom, serwis opon Katowice, nieruchomości Wrocław) nie ma żadnej moderacji. Algorytm działa na zasadzie: wyszukany "wzorzec nienturalnych linków" > 50% łącznej liczby linków = out. Obecnie jest to dla nich nawet łatwiejsze dzięki disavow bo już nie muszą zatrudniać teamów do szukania "nienaturalnych linków" :).

Dla tych co lubią na biało i dla tych co na czarno:
logo_ap.jpg godmodelogo.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności