Skocz do zawartości

Pierwsze efekty Dużego Taty.


jez

Rekomendowane odpowiedzi

A ja mam teorie ;P

Google sobie nie radzi. Za duzo masyzn mialo aktualizowac wyniki wg tego samego algorytmu - wiec teraz roba huby - BigDaddy - zeby odciazyc DC. Bo akturat bd daje wyniki aktualne i odpowiada na kazdy moj ruch tak jak kiedys inne dc. A te DC na ktorych sa stare wyniki po prostu nie czytaja nowych rzeczy.

Proste?

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 111
  • Dodano
  • Ostatniej odpowiedzi

wedlug mnie to nie jest zadne przemyslane przesieczkowanie wynikow:)

na interesujace mnie frazy:

- wyniki zmieniaja sie przynajmniej kilka razy w ciagu dnia

- w top 10 pojawiaja sie nawet 3 nowiutkie strony z PR=0

- data zrobienia kopii strony ma rozstrzal okolo 2 tygodni

- moje strony skacza pomiedzy 9 a 40 miejscem, jednej czasami nie ma wogole (udalo mi sie zlapac taki moment)

jesli nowy algorytm mialby wprowadzac zroznicowanie wynikow wyszukiwania w czasie, to dlaczego z roznymi kopiami strony i dlaczego nie wszystkie strony mialyby brac udzial w takim "losowaniu" ?

chyba bardziej zacheciloby mnie do reklamy to, ze nie ma mnie w szukarce wysoko, niz to ze pol dnia jestem 5 a pol dnia jestem 12

osobiscie obstawiam teorie, ze google sie nie wyrabia z obrabianiem tak duzej ilosci danych (dlatego np. wprowadzili mozliwosc przysylania sitemap) i technicznie zaczyna sie sypac

www.akwaswiat.net - nowe/stare forum akwarystyczne :)

Odnośnik do komentarza
Udostępnij na innych stronach

Mnie podejrzenie o zbyt malej mocy obliczeniowej googla jakos nie przekonuje, choc swego czasu tez mialem podobne przypuszczenia. Powod jest prosty, maja za duzo kasy zeby taki scenariusz mial sens, sitemapy sa raczej pomoca dla webmasterow niz dla googla, on i tak nie uwierzy we wszystko co mu podamy w sitemapie, ona jedynie pomoga botowi poruszac sie po stronie. Jezeli google ma problemy techniczne to wedlug mnie moga miec jedynie charakter chwilowy w zwiazku z wprowadzaniem czegos duzego. Potem jakkolwiek bedzie to bedzie wlasnie tak jak sobie wymyslili :)

Odnośnik do komentarza
Udostępnij na innych stronach

A ja mam teorie ;P

Google sobie nie radzi. Za duzo masyzn mialo aktualizowac wyniki wg tego samego algorytmu - wiec teraz roba huby - BigDaddy - zeby odciazyc DC. Bo akturat bd daje wyniki aktualne i odpowiada na kazdy moj ruch tak jak kiedys inne dc. A te DC na ktorych sa stare wyniki po prostu nie czytaja nowych rzeczy.

Proste?

Bo tym jest własnie BD, co wynika z wypowiedzi pracownika google w jednym z artykułów przytoczonych na tym forym (gorzej niż kiepsko przetłumaczonym na język polski), a nie nowym algorytmem.

O tym że google sobie nie radzi z updateami świadczy o tym coraz dluzszy tzw google dance - wprowadzanie nowych algorytmów trwa coraz dłużej w związku z coraz wiekszą ilością stron w indexie i coraz większa ilością "małych" datacenters (nie kazde musi sie updatowac w tym samym czasie)

Zastanawiał się kiedyś ktoś jak fizycznie może wyglądać datacenter ?

https://www.investnetwork.it/Refurbishing/racks_big.jpg

zakadam ze mniej wiecej tak (tysiace maszyn w rackach wsadzone w odpowiednie szafy - i niektorzy maja od razu odpowiedz skad google ma te dziesiatki tysiecy maszyn i jak to moze wygladac)

Dolozenie kilkutysiecy maszyn do tego czegos (w zwiazku z rosnaca iloscia danych jakie trzeba przetwarzac) to nie problem, mniej wiecej wystarczy dolozyc kilkanascie szaf , problem zaczyna sie gdy trzeba im przydzielic odpowiednie zadania - w tym momecie czasami google nie zwraca zadnego wyniku na jakies slowo (byly ostatnio takie przypadki opisane na forum) - czesc bazy zostaje kopiowana na nowe maszyny, ale jeszcze nie jest gotowa do uzycia.

Wprowadzajac nowe algorytmy, bo nie wierze ze jest to jeden wielki algorytm indexujacy (jedno zadanie obrobienia poteznej ilosci danych zawsze trwa dluzej niz kilkanascie malych robiacych okreslene rzeczy, ururachamianych po sobie lub wspolbieznie).

Google traci mase czasu i mocy obliczeniowej robiac dokladnie to samo na wielu datacenters - replikacja tak wielkiej ilosci danych , uaktualnianianych na biezaco nie wchodzi w gre - poprostu pomiedzy dziennymi updatami zabraklo by czasu na przenoszenie danych z jednego DC do drugiego, wiec kazde DC robi updaty na wlasna reke. I tu ma potwierdzenie teorii ze na roznych DC moga dzialac rozne wersje algorytmow.

BD to proba laczenia "kilku malych datacenetrs" w jedno wieksze co powinno zaowacowac znacznie ktorszymi czasami w jakich wprowdza sie nowe algorytmy i bardziej stalymi wynikami.

A laczac jakies np dwa DC trzeba dla obu przyjac jakis wspolny punkt w czasie dla danych ktorymi beda operowac - stad te wyniki z przed dwoch miesiecy.

To ze google planuje wporwadzac jakies skaczace wyniki to bzdura, algorytm powinien ustalac pozycje stron jak najbardziej trafnie i najbardziej aktualnie - i mozna zalozyc ze tak jest, dlatego szukajac czegokolwiek wszyscy z tego forum uzywaja google.

Testowanie nowych algorytmow na zywca to tez bzdura. Nie da sie do konca przewidziec jakie wyniki przyniesie zmiana algorytmu - zawsze moze on zawierac ,ase bledow, ktora doprowadzila by w nieprzewidzanych sytuacjach do zwisow, lub wywalanie czegos z indexu. Google najprawdopodobniej uzywa jakiegos wewnetrznego datacenetr do zebrania wynikow, a pozniej na nim uruchamia testowe algorytmy, jezeli wszytsko jest ok, to algorytm jest replikowany na pozostale dc i nastepnie zastepuje stary algorytm.

To samo sie tyczy wykrywania likow rotacyjnych, myslal ktos w jaki sposob mozna to w ogole ukrocic ? Przeciez google nie bedzie sprawdzac czy do Waszej strony prowadza linki rotacyjne... zawsze moze sprawdzic czy linki na podstronach jakiejs strony sie rotuja , i wtedy straca one moc. I jak mniemam w tym roku moze w przyszlym nastanie taki czas ze linkor odejdzie do lamusa :)

Odnośnik do komentarza
Udostępnij na innych stronach

o ze google planuje wporwadzac jakies skaczace wyniki to bzdura, algorytm powinien ustalac pozycje stron jak najbardziej trafnie i najbardziej aktualnie - i mozna zalozyc ze tak jest, dlatego szukajac czegokolwiek wszyscy z tego forum uzywaja google.

Z tym si enie zgodze powiedzmy google przygotowuję 4 algorytmy stabilne w których

algorytm A kałdzie nacisk na ilośc linków

algorytm B na częste zmiany na stronie

algorytm C kaładzie nacisk na Meta Title i zawartość

algorytm D na wybor strony przz użytkownika

Tylko przykłąd żeby nei było

i teraz łacząć sie z G nie wiesz na jaki algorytm trafiłeś idla jednego zapytani na jednym DC mozesz mieć 4 różne wyniki.

I to jest dla mnie aktualnie cholerenie prawdopodobny scenariusz zresztą pisałem o tym juz kiedyś.

Na razie jednak nie wysuwam żadnych wniosków tlyko robie testy co i wam bym radził....

Odnośnik do komentarza
Udostępnij na innych stronach

algorytm A kałdzie nacisk na ilośc linków

algorytm B na częste zmiany na stronie

algorytm C kaładzie nacisk na Meta Title i zawartość

algorytm D na wybor strony przz użytkownika

Myslisz, ze jak jest teraz ? Mozna zalozyc ze takie algorytmy dzialaja w obrebie kazdego DC

najpierw pozycja jest ustalana w dg jednego kryterium, potem korygowana kolejnym, potem nastepnym. Wg priorytetow jakie dla google ma kazdy z tych warunkow.

A co do testow, wg mnie nie ma sensu, poniewaz nie wiesz na jakim DC jakie dzialaja algorytmy - nikt tego nie wie procz samego google, ale czekam na jakies odkrywcze wnioski :)

Odnośnik do komentarza
Udostępnij na innych stronach

Z tym si enie zgodze powiedzmy google przygotowuję 4 algorytmy stabilne w których

algorytm A kałdzie nacisk na ilośc linków

algorytm B na częste zmiany na stronie

algorytm C kaładzie nacisk na Meta Title i zawartość

algorytm D na wybor strony przz użytkownika

z tym ja sie nie zogdze, poniewaz wezmy okres roczny dzialania takiego czegos :

stronom z algorytmow D,C i B bedzie przybywac linkow , pojawiaja sie wyoko , ludzie do nich linkuja ... w tym wypadku algorytm A nie ma sensu istnienia, poniewaz beda nim promowane dokladnie te same strony co z pozostalych algorytmow. Strony z "dobra" do pozycjonowania zawartoscia sa uaktualniane czasami nawte co dziennie, wiec wprowadzajac takie cos, po roku wrocilibysmy do tego co jest teraz.

Co do wiekszych zmian to ja obastawiam w tym roku zmniejszenie do "0" mocy linkow rotacyjnych i prawidlowe wskazania dla site:url

Odnośnik do komentarza
Udostępnij na innych stronach

z tym ja sie nie zogdze, poniewaz wezmy okres roczny dzialania takiego czegos :

DUffy kurde pecjalnie napisałem że to jest przykład, aby uwidoczic że tak zwane przypadkowość wyników w Google jest możliwa.

EDYTA

Duffy a co do testów no cóż skoro uważasz ze nei warto to nie rób ale potem sie nie dziw że jak ktoś znajdize słabostkę googla dojdzie do wniosków że sie z Tobą nie podzieli, bo sorka mój czas jest cenny i płatny a nie darmowy więc sorry i uwierz :tajne metody pozycjonowania" nie są zdradzane za darmo...

Odnośnik do komentarza
Udostępnij na innych stronach

DUffy kurde pecjalnie napisałem że to jest przykład, aby uwidoczic że tak zwane przypadkowość wyników w Google jest możliwa.

Jeszcze zadna wyszukiwarka nie zdecydowala sie na takie pokazywanie wynikow, krok dosc odwazny i nie wiadomo jak moze wplynac na chec korzystania z google, im wiecej osob korzysta , tym wiecej chetnych na reklamy.

Duffy a co do testów no cóż skoro uważasz ze nei warto to nie rób ale potem sie nie dziw że jak ktoś znajdize słabostkę googla dojdzie do wniosków że sie z Tobą nie podzieli, bo sorka mój czas jest cenny i płatny a nie darmowy więc sorry i uwierz :tajne metody pozycjonowania" nie są zdradzane za darmo...

Tak uwazam ze nie warto nic sprawdzac do chwili az google powie "Big Dadady is in da house", bo nie przyniesie to zadnych efektow, byc moze poza zdziwniem w momecie w ktorym google tak powie :) Tzw tajne metody to tajemnica poliszynela, jak ktos bardzo bedzie chcial sie czegos dowiedziec o pozycjonowaniu to sie dowie. Czas kazdego czlowieka jest cenny, chcoiaciazby z tego wzgledu ze kiedys dobiegnie konca.

Odnośnik do komentarza
Udostępnij na innych stronach

I jeżeli update wszystkiego na BD będzie trwało 2 lata to my dalej mamy czekać i mówić klientą '

Sorry szefie google zmiania algorytm

- CO przecież 5 miesiecy temu zaczeły sie zmiany a mnie nadal nie ma w top 10'

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

A ja sie moge uprzec ze po porstu nie wydalają. Wszystko to ostatnio potwierdza - brak cache, stare wyniki (bo to co dostajemy na niektorych dc to po porstu wyniki z przed jakiegos czasu). poniewaz oprocz nas nikomu to nie przeszkadza (nikt tego nie widzi) - to zmiany nie są nagłe (nowe maszyny) tylko własnie powolne i gruntowne - big daddy. Póki reklamy adsense działaja google ma w d... inne sprawy :)

Z klientami robie tak: najpierw szkolenie co to google dance, dc i big dady. Potem rozmawiamy o cenie :)

Odnośnik do komentarza
Udostępnij na innych stronach

Jeszcze zadna wyszukiwarka nie zdecydowala sie na takie pokazywanie wynikow, krok dosc odwazny i nie wiadomo jak moze wplynac na chec korzystania z google, im wiecej osob korzysta , tym wiecej chetnych na reklamy.

Ja uważam, że tasowanie wyników to dobry pomysł. Przecież o to właśnie chodzi, żeby nie dało się manipulować wynikami - to dodaje wiarygodności.

Program partnerski na Twoje katalogi i precle! Nawet 20% prowizji!
Odnośnik do komentarza
Udostępnij na innych stronach

Jeszcze zadna wyszukiwarka nie zdecydowala sie na takie pokazywanie wynikow, krok dosc odwazny i nie wiadomo jak moze wplynac na chec korzystania z google, im wiecej osob korzysta , tym wiecej chetnych na reklamy.

Ja uważam, że tasowanie wyników to dobry pomysł. Przecież o to właśnie chodzi, żeby nie dało się manipulować wynikami - to dodaje wiarygodności.

Co za problem wypozycjonowac 4 domeny prowadzace do tej samej strony na 4 rozne sposoby ?

google jest dla zwyklych uzytkownik a nie dla pozycjonerow, kilka roznych losowych sposobow ustalania pozycji do dla zwykklego uzytkownika to istny porazka , rownie dobrze wyniki moglby by byc ustalane za kazdym razem inaczej w kolejnosci przypadkowej.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności