Skocz do zawartości

idealny algorytm


Oxygene

Rekomendowane odpowiedzi

Chcialbym podyskutiwac dzis o tym jak powinien wygladac idealny algorytm wyszukiwarki. Watpliwa szansa zeby autorzy wyszukiwarek nas posluchali, ale pomarzyc zawsze mozna :D A wiec pytanie co powinien miec idealny algorytm i wady i zalety danej funkcji pod wzgledem czystosci wynikow i latwosci pozycjonowania. A wiec do dziela!

Wedlug mnie idealny algorytm powinien miec:

- jak naturalniejszy jezyk zapytan - wpisuje "co to jest router" i wyskakuja mi strony z opisem czym urzadzenie jest a nie oferty firm produkujacych owe routery. Moze warto byloby wprowadzic nowy znacznik HTML typu TEXTTYPE=[encyklopedia/oferta kupna/sprzedazy/opowiadanie/humor/galeria itp]? To jednak jeszcze dluga droga, bo gdybym chcial zadac pytanie wyszukiwarce "ile mrowek znajduje sie w typowym mrowisku" trzebabyloby uzyc sztucznej inteligencji i piekielnie dobrego algorytmu

- inteligentny sposob oceny linkow do danej strony. Niestety problem jest nie do przeskoczenia - zaden nawet najinteligentniejszy algorytm nie bedzie madrzejszy od czlowieka i czlowiek zawsze go oszuka. W kazdym razie rozroznianie linkow na gorsze lub lepsze przez C-block lub anchor text jest wielce niedoskonale, niesprawiedliwe bo w rzeszy ilus tam miliardow stron znajdzie sie kilka tysiecy/milionow ktore bardzo na tym ucierpia

- jak wlasciwie ocenic czy zawartosc strony zgadza sie z keywordsami? to, ze wystepuje slowo-klucz w tresci strony wcale nie oznacza ze tekst jest wlasnie otym. rowniez znaczniki H1, czcionka 1pt itp. nie moga swiadczyc o wartosci lub bezwartosciowosci tekstu. do tego potrzebny bylby inteligentny robot ktory :rozumialby" to co czyta i tak ocenialby wartosc tekstu. ale to jeszcze bardziej odleglejsza przyszlosc...

Chyba zbytnio sie rozmarzylem :D i napisalem jaki algorytm moglby byc w 2064 roku a nie na przesztrzeni kilku kolejnych lat lub miesiecy. Jakie usprawnienia wprowadzilibyscie juz teraz? Oto moje typy

- wykrywanie oszustw typu H1 o "mrowkowej" wielkosci :D przezroczyste lub niewidoczne div'y,

- nieprzykladanie az takiej wagi do keywordsow ale bardziej do tresci

- zroznicowanie wagi roznych linkow (namiastka tego jest PR stron linkujacych)

- CZESTSZE UPDATE'Y ;)

-...

słownik informatyczny ... aby wiedzieć więcej

(łac. Oxygene - tlen) Tlen był jest i będzie bo tlen jest wszędzie ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

marzenia piekne, ale data mining to jest wciaz nomen omen eksplorowana dziedzina. wszystko to co napisales da sie zrobic na dzien dzisiejszy - jest to osiagalne, z tego co mi wiadomo.

ale w malej skali.

wyobraz sobie jakiej mocy obliczeniowej potrzebowalyby klastery googla, zeby analizowac tresc stron. wyobraz sobie ile jezykow trzeba by zaimplementowac - bo wszak kazdy jezyk ma inna skladnie, gramatyke itd - a jesli algorytm ma oceniac wartosc strony, to musi rozumiec co czyta. zeby rozumial - musi miec wzorce. bez ksiazki z gramatyki tez laik tez nic z angielskiego nie zrozumie, poza keywordami. 'coca-cola, mcdonald' etc.

nwet najinteligentniejszy algorytm nie bedzie madrzejszy od czlowieka i czlowiek zawsze go oszuka

zalezy jak na to spojrzec. czlowiek niestety jest zbyt sprytny i czasem przechytrza samego siebie, co mu na zle wychodzi. w dodatku kieruje sie emocjami. a algorytm w tych warunkach wlasnie moglby sie sprawdzic. tyle ze trzeba by przestac nazywac go algorytmem, a raczej sztucznym bytem segregujacym tresci, lub nawet kobyszczę (pozdrowienia, Panie Lem!).

- wykrywanie oszustw typu H1 o "mrowkowej" wielkosci  przezroczyste lub niewidoczne div'y,

zbyt rygorystyczne. kto ma oceniac czy h1 ma miec min 5px czy wiecej? podobnie ryzykowne sa ukryte divy - skad google ma wiedziecz czy to nie element rollover menu? takich zmian zadna wyszukiwarka sie nie podejmie.

- nieprzykladanie az takiej wagi do keywordsow ale bardziej do tresci

no coz, nowe wyszukiwarki tak wlasnie robia. to ze onet chodzi na jakims archaicznym inktomi, to juz inna sprawa.

- zroznicowanie wagi roznych linkow (namiastka tego jest PR stron linkujacych)

wg jakich kryteriow?

- CZESTSZE UPDATE'Y 

wszystko to sie wiaze z tym co napisalem u gory - nie ma mocy przeliczeniowej na takie zabawy. z drugiej strony juz sie mowi o tym, ze radsze 'main update'y maja utrudnic zadanie seo-cwaniakom za dyche.

"i can handle it without linking :)"

Odnośnik do komentarza
Udostępnij na innych stronach

wyobraz sobie jakiej mocy obliczeniowej potrzebowalyby klastery googla

Zbliżonej do tej, którą dysponują centra meteorologiczne, symulujące pogodynkę w RPA w zależności m.in. od liczby rowerzystów w Pekinie lub niejaki Echelon. Jeżeli działanie Algorytmu Wielkiego zostanie oparte na możliwościach np. syntetycznych neuronów zmiksowanych z białkiem - to w krótkim czasie zostanie Wielkim Cenzorem-Kreatorem na usługach swojego pana. Nie bez powodu w latach 60-tych bodaj wojskowi zajęli się gruntowną analizą literatury science-fiction.

napisalem jaki algorytm moglby byc w 2064

Napisałeś, jaki był dawno temu.

Odnośnik do komentarza
Udostępnij na innych stronach

Napisałeś, jaki był dawno temu.

:shock: Napisz o tym cos wiecej bo nie moge wprost w to uwierzyc. Po prostu szok (bez aluzji do kolegi). Czy ty masz jakies dojscie do tajnych akt CIA i FBI, ze takie rzeczy wiesz??

słownik informatyczny ... aby wiedzieć więcej

(łac. Oxygene - tlen) Tlen był jest i będzie bo tlen jest wszędzie ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

bo nie moge wprost w to uwierzyc

Oxygene, nie podpuszczaj mnie :) , a jeżeli to sprytniej ;)

W rewanżu i dla pobudzenia wyobraźni zdradzę Ci top secret - na potrzeby tego, czemu poświęcone jest to forum AW vel WCK poświęca 10% swoich "mocy przerobowych", a ostatnio mam wrażenie, że wynik wyszukiwania, który nam serwuje na monitorach to produkt bardzo uboczny ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Jedyny sposób na to aby wyszukiwarki były inteligentne jak ludzi to ....... posadzic czlowieka do tego aby robil wszystko to co teraz robi wyszukiwarka, na to jak narazie nie ma lepszych sposobow.

Tak samo mysle wiec dlatego nie wierzylem graffowi.

słownik informatyczny ... aby wiedzieć więcej

(łac. Oxygene - tlen) Tlen był jest i będzie bo tlen jest wszędzie ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

Zbliżonej do tej, którą dysponują centra meteorologiczne, symulujące pogodynkę w RPA w zależności m.in. od liczby rowerzystów w Pekinie lub niejaki Echelon.

echelon to urban-myth :)

ja mowilem o algorytmie niejako publicznym. a nie rzadowych planach, bo wiadomo ze takie to sie snuja i wyprzedzaja obecne rozwiazania o kilka dlugosci (bo musza - chodzi o bezpieczenstwo i ew. wojne).

"i can handle it without linking :)"

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności