Skocz do zawartości

Zagadka ?


graff

Rekomendowane odpowiedzi

Nie wiem, czy to jest zagadkowe, ale nie znajduję wyjasnienia tej sytuacji, więc może jednak... W tekście Śladem Google opisałem w miarę szczegółowo na czym rzecz polega. Zjawisko można zaobserwować tylko w szczególnych sytuacjach, czyli gdy coś się "rypnie" w Google, a polega ono na próbach dostosowania indeksów innych wyszukiwarek do tego, co G uważa (błędnie) za aktualne.

Czy ktoś mógłby mi wyjaśnić, o co chodzi ? Odpowiedź ma dla mnie wymiar praktyczny - jeżeli się okaże, że praktyka budowania wyszukiwarki na zasobach G jest dosyć powszechna (o ile kombinuję w dobrym kierunku), to może zaoszczędzę nieco czasu przy pracy nad Hm? ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 67
  • Dodano
  • Ostatniej odpowiedzi

Czy ktoś mógłby mi wyjaśnić, o co chodzi?

Noo, chodzi o kasę. Tzn. skorzystanie z indeksu Googla przyśpiesza znacząco obróbkę danych a tym samym pozwala zmniejszyć koszty. Po co się męczyć i tracić czas :hello:

Dobra robota Graff! :P

Tutaj będą zaj...iste trzy linki...

Odnośnik do komentarza
Udostępnij na innych stronach

Jurek, już o tym pisałem w topicu Szpiedzy Google, jak widać corazto więcej osób ma te same spostrzeżenia.

Tylko o ile pamiętam, wtedy mnie troszkę wyśmiałeś. ;)

Popatrz sobie lepiej co się dzieje z cloakingiem. Czy na tym forum jest choć jedna osoba, której UA- i IP cloaking nie siadł na stronie PR>=4? Cóż.

Warto wreszcie powiedzieć, że toolbary i setki form googlowskich trojanów (w szczególności firefoxy, desktopy, picasy i reszta) powstały tylko po to, żeby Google powoli odchodziło od robotów. :tancze:

Co to oznacza - co bardziej domyślni już widzą, a co mniej domyślni niech myślą że widzą. :)

Pozdrawiam, J.

Odnośnik do komentarza
Udostępnij na innych stronach

już o tym pisałem

Faktycznie. Nie pozostaje mi nic innego, jak zwrócić Ci honor Jeżu, co niniejszym czynię.

Zaryzykowałeś wniosek na podstawie wątłej przesłanki - ja, jak sądzę, dostarczyłem dowodów, że słowo staje się ciałem.

Warto wreszcie powiedzieć, że toolbary i setki form googlowskich trojanów (...) powstały tylko po to, żeby Google powoli odchodziło od robotów

Prawdopodobnie za czas niezbędny znowu będziesz musiał podać link do tego postu pisząc, że "już o tym pisałem", a będzie to ostatnia wypowiedź na PiO. To oświadczenie powinno już dzisiaj wstrząsnąć seobranżą. Jeżeli powiązać je z teorią i praktyką superindex-u, to... polecam uruchamianie programów lojalnościowych dla uu póki czas.

Forumowiczu - jeżeli wiążesz swoja przyszłość z seo, to opraw sobie ten wątek w ramki. I czytaj Jeża ze zrozumieniem ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

Rozumiem, że Google może zechcieć odejść od "tradycyjnej" metody mierzenia popularności, roboty pójdą w odstawkę i tradycyjne SEO, potocznie mówiąc, dostanie po du**e. Choć nie uważam, ale oczywiście opieram się bardziej na intuicji niż jakiejś analizie, że "trojany" będą mniej podatne na manipulacje niż roboty (buźki? klikohit? :tancze:. Ale nijak nie mogę tego powiązać z ideą udostępniania zasobów przez G innym szukarkom - przypuszczam jakie korzyści może mieć "dostarczyciel" tych zasobów, ale nie wiem co z tego mogą mieć "odbiorcy". I nie bardzo widzę sens trwonienia przewagi G w obszarze indexu/historii i popularności na rzecz, np. MSN, z ich "naturalną" 70 - 90% przewagą w obszarze przeglądarek i wszelakich nakładek/trojanów;) Czyżby Google chciało ukręcić łeb potencjalnym pozwom sądowym i zrzucić odpowiedzialność na internautów, którzy poinstalują sobie różne gó... na kompie? Likwidacja zjawiska cloakingu to chyba za mało, by przewracać do góry nogami algorytm szukarki, która przynosi coraz większe zyski. A może wyścig na indexy z Yahoo czy MSNem powoli zmęczył już giganta i szuka nowych rozwiązań?

Odnośnik do komentarza
Udostępnij na innych stronach

nijak nie mogę tego powiązać z ideą udostępniania zasobów przez G innym szukarkom

I dlatego w pierwszym odruchu odrzuciłem sugestie Jeża, bo wydawało się, że to jest pod każdym, a przede wszystkim pod ekonomicznym względem nieuzasadnione. Do tej pory wszak zasobność indeksu była podstawowym elementem konkurencyjności.

Przypomnijcie sobie, że G i Y! poszły na noże, licytując się na stan posiadania. Wkrótce potem zniknęła informacja w G o liczbie zaindeksowanych dokumentów i zaczęły się wszelkie możliwe problemy seo.

Prawdopodobnie - i tu znowu analogia do branży motoryzacyjnej - potentaci doszli do wniosku, że można budować różne modele "na jednej ramie". Na partnerskich zasadach "wymiana" - z docelowym ujednoliceniem materiału wyjściowego - obdywać się dzisiaj może tylko pomiędzy GYM. Ktokowliek zechce skorzystać z opcji dostępu (zapewne o różnicowanym zasięgu) do superindeksu (vide:Hakia), ten z automatu popada w uzależnienie od dysponenta, ale może skoncentrowac działania na budowie marki, odpuszczając sobie nadzwyczajne inwestycje w infrastrukturę programowo-sprzętową, bo nie ma sensu wyważanie otwartych drzwi.

To trzyma się kupy (pamiętając o zapowiedziach G dot. budowy bazy gromadzącej wszystkie zasoby/całą wiedzę - po grzyba dwie lub trzy), ale w połączeniu z zasadnymi przewidywaniami Jeża - to bliski finał seo opartego na zasadzie "linki-linki-linki".

Odnośnik do komentarza
Udostępnij na innych stronach

Ale to wciąż dla mnie jest niespójne. OK, istnienie superindexu dla niewielkich, lokalnych czy nowopowstałych serwisów (Hakia, Hm? :tancze: ma sens bo przynosi korzyści obu stronom. G, bo udostępnia swoje zasoby na zasadzie wyłączności?, pod kontrolą marki, a "odbiorcom", bo nie wymaga nakładów w infrastrukturę. Ale już w przypadku Yahoo i MSN nie widzę takich korzyści - bo też i oszczędności na infrastrukturę nie są tam chyba priorytetem na tyle ważnym, by pozbywać się suwerenności. Idea "połączenia sił" byłaby słuszna, gdyby te firmy były organizacjami dbającymi o jakość serwowanych wyników, ale nie łudźmy się, że chodzi o coś więcej niz kasę. No i nie zgodzę się, z "wymianą" - z docelowym ujednoliceniem materiału wyjściowego, raczej właśnie uniejednoliceniem - jakiż sens miałoby serwowanie z różnych szukarek takich samych wyników?

ps. Wciąż nie widzę powiązania między superindexem a zmierzchem tradycyjnej ery SEO.

Odnośnik do komentarza
Udostępnij na innych stronach

serwowanie z różnych szukarek takich samych wyników

Nie, nie. Wyniki będą różne - dyktowane lokalnym, firmowym algorytmem przy czym G - prawdopodobnie - "odda władzę w ręce ludu", przejmując nad nim totalną kontrolę. Może to się ociera nieco o futurologię, ale historycznie uzasadnioną. Rywalizacja na etapie pozyskiwania danych jest "wojną mechaniczną", czym innym natomiast rywalizacja na poziomie analizy danych i ich opakowania. Tutaj można dokonać konkurencyjnego zróżnicowania "produktu".

Odnośnik do komentarza
Udostępnij na innych stronach

cd:

nie widzę powiązania między superindexem a zmierzchem tradycyjnej ery SEO

Bo nie ma takiego. Dopiero uwzględniając sugestię Jeża i rozwijając ją do opcji "nie link, a wejście użytkownika do serwisu jest głosem oddanym sa serwis" - mozna pokusić się o czarnowidztwo :-)

To jest w pełni analogiczne do modelu obowiązującego w innych mediach. O powodzeniu decyduje "oglądalność" (wchodzę na stronę), a nie fakt, że użytkownik "ma program w pilocie" (jest link do mojej strony). Głos oddany w ten sposób może miec różną wagę - czas pobytu, liczba i rodzaj podjętych akcji... a to umożliwi generowanie rankingu ściśle powiązanego z preferencjami odbiorcy. A że są one jakie są... kogo to obchodzi.

Odnośnik do komentarza
Udostępnij na innych stronach

To jest w pełni analogiczne do modelu obowiązującego w innych mediach. O powodzeniu decyduje "oglądalność"

ciekawa teoria, ale zwróć uwagę, że: kanałów tv nawaet w USA jest sporo mniej niż stron a badania ogladalności opierają się na statystycznej grupie "dobiorników"

jakz atem wyobrażasz sobie takie badanie w Necie? czy google przejmie mechanizm od DirectHita, WP czy Netsprinta ??

taki ranking był moim zdaniem mozliwy jakiś czas temu i to raczej dla MSN ( wtedy kiedy IE stanowiło większą większość niż obecnie ) a i dalej jeżeli ktoś go wprowadzi to raczej MSN niż google.

Oczywiście mozecie mieć rację. pozostaje zatem się spiąć i przez najblizsze dwa lata zarobić tyle, zeby zmianę algo uniemożliwiajacą pozycjonowanie oglądać z bezpieczniejszej perspektywy :tancze:

wyprzedaż domen. domeny od 300 pln

 

idziesz na zakupy i po kody rabatowe czy wybierasz gotowanie w domu i potrzebujesz dobry przepis ? ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Nie zdziwiłbym się gdyby doszło do tego, że na jakiekolwiek zapytanie wpisane w google wynik będzie różny dla każdego użytkownika - w zależności od preferencji, które google pozna dzięki ciągłemu monitorowaniu ruchów usera.

Dodatkowo coraz częściej (na razie podejrzenia) wydaje mi się, że Google dązy do pozycjonowania reklam Adwords w Adsensie - nie koniecznie w zależności od charakteru strony, ale w zależności od tego jaki user ją odwiedza i czym się interesował np. w ostatnich 3 miesiącach.

Odnośnik do komentarza
Udostępnij na innych stronach

Lordzie, jest taka opcja, że przeczytałem Jeża bez zrozumienia, ale ostatnie przygody z indeksami, ich powtarzalność oraz trudny do obalenia, choć nie do końća udowodniony wątek szpiegowski - uruchomiły mi myślenie w takim kierunku. Do tego analogie z historii "realnych" korporacji, globalizacji, etc.. Teoria obowiązuje od kilku godzin, więc nie wszystko mam poukładane na tyle, by ze szczególnym samozaparciem jej bronić ;-)

Widzę to tak: G(YM) pozwoli innym wyszukiwarkom istnieć. To przyszła klientela, która dojdzie do wniosku, że koszty samodzielnego utrzymywania wątłej bazy jest nieopłacalne, wobec możliwości dostępu do globalnej na zasadzie np. abonamentu krajowego lub tematycznego. Gęsta sieć takich zróznicowanych quasiwyszukiwarek będzie poniekąd naturalnym tłem dla globalnego szpiega, stwarzając pozory, iż nie ma problemu totalnej inwigilacji.

Badanie, o którym mówisz jest realizowane w trybie ciągłym (w Polsce na próbie 80% Internautów) Nie trzeba mieć szpiega w IE. Na miejscu G zainwestowałbym w np. wtyczki flasha ;-) Resztę pracy w tym zakresie wykonujemy sami za pomocą linków zachęcających do instalacji tego czy owego.

Wykonanie pomiarów, uśrednienie wyników i podanie przetrawionej papki z dokładnością do preferencji mieszkańców dzielnicy nie stanowi problemu już dzisiaj.

Jak się wbić do tak konstruowanego rankingu ? Tylko najciekawszą/najtańsza/najszybszą/najnaj (z punktu widzenia końcowego odbiorcy) ofertą w danej dziedzinie. Nie liczba linków będzie miała znaczenie, a miejsce ich lokalizacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli jeśli teoria się sprawdzi powstaną nowe systemy sztucznie generujące wejścia celem "Oddania" głosu na stronę.

A my zaczniemy pozycjonować wyniki w google np: Pozycjonowanie

Czyli bedziemy wymuszać kliknięcia poprzez G:. W ten sposób będziemy nabijali sobie wejścia, a co za tym idzie wzrośnie nasza pozycja w szukarce - tak to widzę.

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności