Skocz do zawartości

Zagadka ?


graff

Rekomendowane odpowiedzi

Kałach, cenię sobie Twoją opinię, bo znasz się na rzeczy. Przypuszczam jednak, że nikt z dotychczas wypowiadających się tutaj nie potraktował sprawy z taką powagą, z jaką Ty to uczyniłeś. Pytanie - czy to jest zasadne podejście do tematu. Chyba nie.

Wątek jest w dziale "Google" a nie "Pogaduszki" zatem sprawę potraktowałem poważnie :-)

Dostrzegam NIENATURALNE czyli ODMIENNE od dotychczasowych zachowania systemów, które nominalnie nie są ze sobą powiązane. Cała reszta to prowokowana zabawa w budowę scenariusza prawdopodobnych przyczyn i następstw..

Fakt, opisana sytuacja (podobne rozjazdy czasowe w różnych wyszukiwarkach) jest dość ciekawa, mam pewne pomysly na jej wyjaśnienie, ale musiałbym obserwować indeksy dla tego serwisu przez dłuższy okres czasu aby wyciągnąć jakieś konkretne wnioski.

Jednak to co mi się nie spodobało to teoria "trojańska", oraz jej rozwinięcie (eliminacja robotów, wartościowanie wyników na podstawie ich popularności...).

stawianie znaku równości między popularnością i jakością to błąd

Oczywiście, że tak. Jak w każdej dziedzinie życia, tak i tu obowiązuje zasada, że "zły pieniądz wypiera dobry".

Pewnie znow traktuję sprawę zbyt poważnie, ale prawo Kopernika-Greshama które zacytowałeś wcale nie dotyczy każdej dziedziny życia, wręcz przeciwnie :-) W szczególności nie widzę jego powiązania z tematem o którym dyskutujemy.

Chcesz definicji superindex-u ? Nie wiem, czy przypadnie Ci do gustu: integregracja niezależnych dotąd sieci DC głównych graczy na rynku wyszukiwarek celem eliminacji powielania wykonywanej pracy. Chociażby na rzecz ograniczenia energochłonności procesu gromadzenia danych i ich obróbki w podstawowym zakresie. Irracjonalne ?

Może nie irracjonalne, ale moim zdaniem na dzień dzisiejszy nieprawdziwe i raczej niemożliwe do realizacji, z wielu względów.

Bardziej byłbym skłonny opisywane w tym wątku zjawiska zakwalifikować jako uboczne efekty wzajemnego indeksowania wyników wyszukiwania.

Rozpoczęcie jest proste!

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 67
  • Dodano
  • Ostatniej odpowiedzi
Wątek jest w dziale "Google" a nie "Pogaduszki"

Tylko dlatego, że pierwotnie interesował mnie przede wszystkim subtelny związek Google - Netsprint.

przez dłuższy okres czasu aby wyciągnąć jakieś konkretne wnioski.

Wiesz, mam udokumentowane dwa przypadki wystąpienia tego zjawiska, na przestrzeni trzech miesięcy. Uznałem za wystarczające dla podjęcia wątku. Za kolejne trzy miesiące będzie to prehistoria.

Jednak to co mi się nie spodobało to teoria "trojańska", oraz jej rozwinięcie (eliminacja robotów, wartościowanie wyników na podstawie ich popularności...)

Za likwidację robotów odpowiada Jeż ;) Ja zlikwidowałem znany nam algorytm i w to miejsce przewiduję właśnie wartościowanie oparte na RELACJI popularności, częstotliwości odwiedzin, czasu aktywności użytkownika, liczbie i rodzaju akcji przez niego podjętych. Jakie zbawcze dla sieci skutki miałoby takie rozwiązanie - szeroko się rozpisywałem wcześniej. Roboty zachowałem.

prawo Kopernika-Greshama

Jestem odmiennego zdania. Wszystkie negatywne zjawiska dotyczące zawartości i objetości sieci są tego konsekwencją. Jeżeli twierdzisz, że ranking oparty na "gustach" będzie jeszcze bardziej podatny - to zgodzę się. Stąd konieczność i oczekiwania indywidualizacji serp-profil. Nie ma problemu mocy obliczeniowych.

zakwalifikować jako uboczne efekty wzajemnego indeksowania wyników wyszukiwania

Odpukaj w niemalowane. Faktycznie doszłoby do zagotowania elektrowni. Zauważ przy tym - że docelowym efektem Twojej propozycji byłoby ujednolicenie zasobów, czyli superindex :D, ale ze wszystkimi wadami rozbicia na kilka systemów DC i dublujących się robotów.

Gdybym miał teorię rozwijać, to powiedziałbym, że superindex byłby niezbedny tylko w okresie przejściowym - sieć oparta na profilach zadowoliłaby się mocno okrojonym (bez klasycznej kopii na DC)... ale nie będę już bulwersować Was takimi wizjami :-)

Całkiem serio natomiast wieszczę koniec seo. Ten proces już jest w toku. Nie jestem autorytetem, więc kto chce - niech sobie bierze do serca, kto nie - niech się pozycjonuje na "pozycjonowanie". Możemy się umówić, że wrócimy do tematu za rok. Najpóźniej za dwa.

Odnośnik do komentarza
Udostępnij na innych stronach

Jak na zamówienie dzisiejszy Dziennik Springera opublikował artykuł o produkcji przez różne koncerny samochodów różniących się tylko logo - co ma być kolejnym krokiem na drodze globalizacji. To tak a'propos wcześniejszych postów.

Pod tym artykułem jest notatka na temat konsolidacji na rynku radiowym. W perspektywie roku-dwóch na krajowym rynku ma pozostać czterech korporacyjnych graczy i kilka stacji-niedobitków. Celem jest redukcja liczby kandydatów do tortu reklamowego... w eterze szacowanego na 500 mln.

pytania (nie dotyczą okazjonalnych ofert na Allegro)

Czy znane są Wam przypadki takich działań w polskim Internecie ?

Czy są już grupy kapitałowe inwestujące w zakup istniejących serwisów ?

Jeżeli tak - czy znacie przykłady takich transakcji ? Jakie branże cieszą się zainteresowaniem ?

Jeżeli nie - czy i kiedy Waszym zdaniem możemy się spodziewać ?

Odnośnik do komentarza
Udostępnij na innych stronach

Jeżeli tak - czy znacie przykłady takich transakcji ? Jakie branże cieszą się zainteresowaniem ?

Znam tylko jedna branże z grupą kapitałową wykupującą polskie lub robione przez Polaków strony i jest nią branża porno.

Jeżeli nie - czy i kiedy Waszym zdaniem możemy się spodziewać ?

Jeżeli chodzi o konsolidację usług lub treści to myśle że poczekamy jeszcze jakiś czas a jaki to trudno określić.

IMHO ma to związek z jakością i potencjałem stron. W tej chwili w polskim internecie jest mało wartościowych serwisów w danej branży i to jaką kolwiek byśmy nie wzieli pod lupę.

Czy to ubezpieczenia, bankowość, rozrywka, randki itp itd...

Wszędzie na razie jest tylko walka o oglądającego. "Polski tort" jest jeszcze nie w pełni podzielony wszelkie ruchy z łączeniem się firm zobaczymy gdy zostaną już tylko okruszki.

Przykładem konsolidacji w jednej grupie ale pod różnymi markami, tak by zaproponować oglądającym najwięcej różnej treści, jest onet.pl. Wykupywanie "dochodowych" stron był jednym ze sposobów na zachęcenie inwestorów.

Z cyklu "Przysłowia Polskie":
- "We wakacja jak i w wiosnę - Google podskakuje se radośnie."
Mój blog o pozycjonowaniu i nie tylko... Strona firmowa - www.antygen.pl

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Szkoda, że temat zamarł - pozwole sobie pare swoich przemyśleń zamieścić:

Superindeks

Myśle, że teza jest bardzo ciekawa. Krok taki byłby racjonalny i myślę, że tak się niebawem oficjalnie stanie. Ciekaw jestem jak z Prawem Własności - co się stało z moim prawem zabronienia googlowi indeksacji strony? Chętnie zobaczyłbym analogiczny test z plikiem robots.txt zabraniającym googlowi wstępu na stronę. Jeśli i tak zostanie za indeksowana, to coś jest nie halo.

Zlikwidowany algorytm - problemy

Ja zlikwidowałem znany nam algorytm i w to miejsce przewiduję właśnie wartościowanie oparte na RELACJI popularności, częstotliwości

odwiedzin, czasu aktywności użytkownika, liczbie i rodzaju akcji przez niego podjętych. Jakie zbawcze dla sieci skutki miałoby takie

rozwiązanie - szeroko się rozpisywałem wcześniej. Roboty zachowałem.

Problemy jakie przychodzą mi na myśl. Częstotliwość odwiedzin - czy strona dobra zawsze wymaga powrotu? Faktycznie, duże portale tematyczne mogą zaoferować taką możliwość - dajmy na przykład wikipedię. Często do niej zaglądam szukając informacji. Nasuwa się pytanie, po co mi Google. Jeśli wiem, że odpowiedź znajdę w wiki, nie musze googlać (choć tak robie, bo nie mam szukajki wiki na operze).

Czas odwiedzin - co ze stronami, które odwiedzamy tylko w poszukiwaniu jakiegoś strzępka informacji? O ile wiem, czas można liczyć między "kliknięciami" na stronie. A jeśli odpowiedź znajdziemy na tej pierwszej? Czy strona zostanie ukarana za trafność? Czynniki wymienione przez graffa tyczą się bardziej storn komercyjnych, gdzie przeglądamy ofertę, gdzie zadajemy pytanie.

Nawiasem mówiąc prowadzi to do faworyzowania stron, które umożliwiają interakcje (formularze szukania, kontaktów, jakieś live-support - utrzymują wysoki standard) a nie zawierających tabele cen i telefon.

Ponad to, każdy kto czytał komentarze onetu, wie, że popularność, częstotliwość czy aktywność użytkownika nie zawsze idzie z jakością treści (w domyśle chodzi o treść tworzoną przez użytkownika a nie portal). Tutaj też pojawia się problem praw autorskich - duży onet głównie cytujący informację będzie zabierał miejsca w SE portalom autorskim.

Wzbogacony algorytm

Mimo to uważam, że teoria może być trafna. Jednak odnoszę wrażenie, że część osób zabierających głos w dyskusji widzi sprawę tylko w bieli lub czerni. Jeśli taki system zostanie wprowadzony, nie będzie on zastępować algorytmu a jedynie będzie jego częścią. Możliwe się wydaje wydzielenie np. koszyka wyników dla których algorytm będzie wzbogacany o ten nowy system. Tak jak to jest teraz, o ile dobrze pamiętam, wyniki zapytań do 1000 pozycji nie są budowane na bazie linkowania do stron, a jedynie na częstotliwości występowania słów kluczowych na stronie.

Wyszczególniłem trzy sposoby według których G mógłby selekcjonować strony wg. nowego wzbogaconego algorytmu.

- Wyjątkowo popularne frazy (podział po ilości - np. od 10 mln wyników)

- Strony z danego rodzaju - np. sklepy, strony komercyjne. Wspomaga to polepszanie wspomnianego wyżej standardu.

- Lub trzeci rodzaj - rozbudowany algorytm ocenia strony, co do których ma wątpliwości, czy są naturalnie wypromowane.

Ostatni rodzaj wydaje się być najbardziej prawdopodobny. Myślę, że - nie licząc problemu SEO - Google jest względnie zadowolony ze swoich wyników. Nie wierze, że zrezygnuje z niszowych wyników - to właśnie był jego atut (nie najmocniejszy). Long Tail - Długi Ogon, możliwość znalezienia małej, zapomnianej stronki z dziwnym słowem.

Dzięki opisanemu układowi G zachowuje:

1) Obecną efektywność szukania mniej popularnych fraz,

2) Ogarnia wielomilionowe/narażone na zniekształcenia SEO wyniki.

Kiedy?

Należy zwrócić uwagę, że tak naprawdę nie wiemy, czy teoretyczny algorytm nie jest już częścią Algorytmu Google - może właśnie Jaggery były jego testami. Za każdym razem zmieniano wagę jego oceny stron. Może już teraz jesteśmy po części oceniani po usability strony. Skąd informacje Choćby z rozszerzonej IE Google Toolbar, gdzie zezwalamy na śledzenie odwiedzanych stron.

Nie ten kierunek

c. Znikają śmietniki, których utrzymywanie nie ma już sensu, więc w bezinwestycyjny sposób przyrastają moce obliczeniowe systemu.

d. Następuje wtórna i znowu radykalna redukcja obciążenia sieci przesyłem związanym z indeksacją/re indeksacją zbędnych i likwidowanych

zasobów.

e. Zmienia się jakość sieci, w której tylko dbałość o standard zasobów gwarantuje sukces.

Nie jestem pewien, czy powtarzane jak mantra hasło "redukcja obciążenia sieci" czy zmniejszanie wymaganej mocy obliczeniowej jest trafne. Dziś jeśli problem nie jest fizyczny (jak np wymóg zmniejszania "prądożerności" układów scalonych podczas miniaturyzacji ze względu na prawo ohma), to jest ekonomiczny. Jeśli mimo to zarabia na siebie, to nie jest problem a nieudogodnienie. Oczywiście, jeśli nadarzy się okazja, pewnie zostanie to nieudogodnienie usunięte.

Google jest potężne, ale jeszcze niema mocy absolutnej. Jeśli graff wieszczy wykreowany przez G indeks najlepszych stron, czyli sprowadzenie internetu do masowej papki tworzonej przez monitorowanie uczestników globalnej sieci. To ja wieszcze rewolucje niepokornych, tych którym się nie podoba taki układ, tym, którzy chcą znaleźć małe forum o ulubionym filmie, a nie rozmawiać o nim na filmwebie wraz z 23 tysiącami innych fanów. Urok małych społeczności które łączy wspólna pasja nie może zostać niedoceniony. Na papierze opisana wizja "małego internetu" wygląda zgrabnie. W praktyce może to okazać się poderżnięciem sobie gardła.

Tezy "zmniejszania" internetu brzmią nieprawdopodobnie. Sam G zresztą w wypowiedziach stawiał na "ogarnięcie" jak największej masy

danych - choćby przypomnieć porozumienie Google i Nasa:

NASA and Google have signed a memorandum of understanding (MOU)

that outlines plans for cooperation on a variety of areas, including large-scale data management, massively distributed computing,

bio-info-nano convergence, and encouragement of the entrepreneurial space industry.

Syty Google

"Artysta głodny jest o wiele bardziej płodny" - pytanie, czy nie przeceniamy Google? Czy firma mająca tak mocną pozycje na rynku ma tyle motywacji, by ryzykować zmienianie kształtu internetu? Czy nie na razie się na gniew internautów? Wizja "małego internetu" wygląda zbyt idyllicznie, by była prawdziwa. G, moim zdaniem, nie ma motywacji by rewolucjonizować świat. Co oryginalnego zafundował nam G ostatnio?

Raczej koncentruje się na pożeraniu małych firm, i wykorzystywaniu ich usług.

Podsumowanie

Superindeks - tak

Koniec algorytmu - nie

Mały internet - nie

Wzbogacony algorytm o "szablon ludzkiego zachowania" - tak

Koniec SEO - nie

Odnośnik do komentarza
Udostępnij na innych stronach

To wszystko nie jest takie proste jak wam sie wydaje.

Wiele waszych przemyslen pozornie jest trafnych i w pelni uzasadnionych ale jestem przekonany ze wiekszosc nigdy nie wypali ze wzgledu na problemy z jakimi sie spotykaja ludzie chcacy wprowadzic te rozwiazania w trakcie prac. Chocby nawet zbytnia ingerencja w zycie jednostki co nastrecza wielu problemow, dopiero trzeba mocy obliczeniowej aby taki projekt wdrozyc.

Nie wydaje mi sie zeby im zalezalo na doskonalych wynikach opartych na analizie jednostki.

I tak maja wieksza czesc rynku a konkurencja musi byc.

Nie straszcie wyindeksowaniem podobnych qlwebow czy innych stron, trzeba pamietac ze takie cuda dzieja sie tylko w Polsce i nikt nie bedzie sie za to zabieral. Jak na razie indeksacja zalezy od ilosci i mocy linkow.

Nie mozna wykluczyc ze niektore wyszukiwarki moga posiadac wspolne elementy np jakąś czesc kodu robota czy inne tajemnicze rzeczy. To by tlumaczylo podstawy pojecia superindeksu.

Odnośnik do komentarza
Udostępnij na innych stronach

Na samym początku chciałbym powiedziec, że jestem tutaj co prawda krótko, bo kilka miesięcy, ale to zdecydowanie najlepszy temat jaki widziałem na tym forum i mimo, że pewnie będę tutaj najgłupszy to jednak chciałbym też dołożyć swoje 3 grosze.

Wszyscy tutaj sie boją , że SEO sie kończy. To, że sie kiedyś skończy to może nie pewniak, ale i możliwość. Jednak nie wierzę, że jedna akacja większości pozycjonerów nie wypromowałaby wśród userów i wśród naszych klientów nowej wyszukiwarki, pracującej na naszych zasadach.

Teoria indywidualnych wyników dla każdego wydaje mi się totalnie niesamowita. Jak to będzie funkcjonować przy rozciągnięciu czasowym?

qraff: w jaki inny sposób będzie można modelowac pozycjami w Twojej wizji googla? Tylko zwiększeniem "ruchu użytkowników" - czyt. zwiększeniem liczby użytkowników? W jaki sposób gośc, który stworzy ciekawą stronę z indywidualnym i pomysłami będzie mógł się przebić do ludzi z tym? Biorąc kredyt pod adwordsa :rolleyes: ? Nawet jeśli będzie to popularnosć.... pozostają wejścia proxy :>

Moim zdaniem google pójdzie w stronę, by jak najbardziej ukrócić zapędy pozycjonerów - szybsze wychwytywanie linków w tle, czy jakiś znaczników h1 z fontsizem 1, czy 2 itp, większa uwaga przywiązywana do jakości linków prowadzonych do strony, może jeszcze większa uwaga do tych tzw. przeze mnie 'pressel page', o których pisał 'jez' kiedyś i o czym czytałem na webmarketingu.

Przecież już dzisiaj jest tak, że dla topowych zapytań będzie tam ten kto da więcej kasy na SEO i zarobi więcej jak da więcej kasy na SEM i po co zastępowac to tylko SEMem? Tylko dla kasy tego na pewno nie zrobią.

Pozdrawiam wszystkich

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności