Skocz do zawartości

Zagadka ?


graff

Rekomendowane odpowiedzi

  • Odpowiedzi 67
  • Dodano
  • Ostatniej odpowiedzi

Graff - podałem to tylko jako mały przykład.

Rozumiem że może to być trudne do wykonania, ale jeśli G: faktycznie stawia na zmiany to zacznie wywierać nacisk na branże SEO.

Wiele firm wówczas zacznie pracować nad nowymi algorytmami "wtyczki do wtyczek"

Każdy algorytm ma wady i zalety i zawsze znajdzie się osoba która wykryje w nim lukę.

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli bedziemy wymuszać kliknięcia poprzez G:. W ten sposób będziemy nabijali sobie wejścia, a co za tym idzie wzrośnie nasza pozycja w szukarce - tak to widzę.

Po co zaraz wymuszać? Będzie się trochę więcej korzystać z Adwords :tancze:

Совместное Украинско-Польское Предприятие УКРМЕТАЛЛСЕРВИС FOSECO

Odnośnik do komentarza
Udostępnij na innych stronach

Czyli trzeba wyjść przyszłościowo i pomyśleć nad kontrolą użytkowników :tancze:

Kampanie reklamowe znów będą miały wiele do powiedzenia - Jeżeli G: zacznie śledzić "ruchy" każdego usera.

Fakt faktem - index googlarki to obecnie leśna zagadka.

Posiadam 1- domenę [15K BL ] która nie zmieniła Site: od 25 Maja tego roku.

Nowe strony nie są indexowane - domena zamarła w bezruchu.

Ps: Ogólnie zauważyłem to samo co opisałeś w swoim artykule "Śladem Google"

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

no więc jak jurka przepowiednie sie sprawdza oby nie, branża SEO bedzie miała wiele wspólnego z ludzmi którzy wirusy piszą, trza będzie pisać programiki i je rozpowszechniac :tancze:

Na szczęście to może być przyszłość i jak sądze odległa.

W całej logice jest jedna mała dziura, jakby tak miało byc, że algo tylko usrednia wyniki chodzenia uzytkowników to żadna nowa strona nie ma szansy zaistnieć.

dymna.jpg

Przyjaźń psa na całe życie. ZAGINĄŁ DOM

Odnośnik do komentarza
Udostępnij na innych stronach

No nie wiem... Sam krok rezygnacji z "tradycyjnego" algorytmu na rzecz mierzalności popularności toolbarem, firefoxem czy innym, jak Jeż nazwał, trojanem wydaje mi się krokiem wstecz. To już prędzej w celu personalizacji informacji, targetowania odbiorców swoich kampanii niż ustalania rankingu. Oczywiście pod względem łatwości dostępu do wielu informacji, dokładności badania (przynajmniej w teorii), uproszczeniu/likwidacji algorytmu czy samej idei kontroli Wielkiego Brata to zasadne, ale specjalistyczne oprogramowanie oszukujące "naturalność" odwiedzin powstanie szybciej nim G rozpropaguje swój nowy algorytm :tancze: I nie przestanie być rozwijane.

Jeśli nawet to wprowadzanie tego potrwa latami.

ps. Czyżby szumne hasła Hakii o sieciach semantycznych to bełkot marketingowy (no tak, to uzasadnia obecność Prokomu;) - opakuje się tylko API Google, wrzuci reklamy i poda na tacy? To żart, ale faktycznie nie widzę powodów, dla których ktoś miałby rozwijać swoje projekty gdy G kontroluje/dostarcza mu index. Ot, zabawka.

Odnośnik do komentarza
Udostępnij na innych stronach

jak sądze odległa

Z indeksami coś się dzieje właśnie TERAZ :-). Moim zdaniem sprzężenie jest ewidentne - trochę chore, ale jest. Czy niezależność indeksów (surowej bazy) jest wartością dla której warto inwestować w niezależne mechanizmy - chyba nie. Może jakieś konkrety na ten temat padną na Web2.0, bo przewidziany jest wątek wspólnych rozwiązań na poziomie strategicznym.

Co do pozycjonowania... im mniejszy udział G w rynku, tym mniejszy problem :-) Link pozostanie linkiem i nie zaszkodzi, jeżeli będzie ich dużo. Cenne jednak będą tylko te linki, przez które "przechodzić będą" ludzie, a nie wyłącznie roboty. Takie podejście do sprawy powinno radykalnie poprawić zawartość sieci.

Na całość można też spojrzeć szerzej. Badacze twierdzą, że G swoimi technologiami spowodowało już dostrzegalne zmiany kulturowe. To, czym się zajmujemy i sposób w jaki spędzamy czas - też jest tego wyrazem. Nie wypada, by "to coś", co ma wpływ na zachowania ludzi pod każdą szerokością geograficzną - było podatne na manipulacje. Rozwiązanie, o którym mówimy eliminuje problem. Jest jeszcze aspekt polityczny. Nie ma rządu na świecie, który nie wszedłby z G do spółki :-) O samym G trudno już dzisiaj mówić jako o firmie. To jest narzędzie kontroli i sprawowania władzy. Kierunek rozwoju, który tu omawiamy wręcz się narzuca. I nie jest to odległa przyszłość.

Ciekawe, co o tym wszystkim sądzi sprawca zamieszania, czyli Jeż :-)

Odnośnik do komentarza
Udostępnij na innych stronach

Troche glupot tu polecialo.

firefox jest przegladarka z otwartym dostepem do kodu zrodlowego. (kod zrodlowy)jak byscie pisali cos w XULu to byscie zauwazyli ze czasem konieczne jest powtorne skompilowanie kodu firefoxa. Wiadomo ze nie przygladalem sie kazdemu plikowi z osobna ale nie zauwazylem tam nic niepokojacego co mogloby informowac google o naszych ruchach. Jesli chodzi o toolbar to sa to przeciez zwykle pliki javy script. (Tak samo jak byl tworzony web seo toolbar). Co niepokojace to sie moze szybko zmienic (np przy jakiejs aktualizacji..). W obecnej wersji moim zdaniem nie jest to trojan

Co do desktop to sie zgadzam.. :) . Jak go mialem musialem blokowac mu wyjscie na zewnatrz.. :)

Odnośnik do komentarza
Udostępnij na innych stronach

co do indeksow to jak najbardziej logiczne.

Jedno wspolne wielkie Dc majace za zadanie jedynie pobieranie stron.

Ekonomia dla kazdego algorytmu i oszczednosc jak i szybkosc reindeksacji.

W sumie nie ma zadnej zaleznosci bo i tak algorytm kazdy oblicza swoje inaczej.

Klikohit swojego rodzaju w google jest od dawna - czy inaczej ujmujac CTR zauwazalny dla mlodych domen jako bost na krotki okres czasu.

Pozwala to ocenic czy jest to strona ktora interesuja sie internauci czy tez nie, w zaleznosci tez od tego czy w okresie bosta bedzie zdobywac popularnosc takie wyniki tez osiagnie po tym okresie.

Tutaj takze takowy bost zabija teoerie filtrow za linki czyli inaczej mowiac za popularnosc.

Skoro strona dostaje bost zeby mogla zaistniec to jakby naturalnym jest ze w tym czasie moze takze zaczac zdobywac zwiekszona ilosc linkow - jak jest fajna jak nie to i ludzie nie wchodza i linkow brak i po okresie bosta leci w dol.

Tak czy tak pomysl ze wspolnym DC jako centrum pobierania stron jest trafiony i zasadny ze wzgledow ekonomicznych.

Co do MSN czy jego udzial w przegladarkach jest zbyt maly by analizowac to nie sadze skoro gemius jest wstanie opierac swoje badania o kilku panelistow to MSN o IE daje wieksza probke danych.

Druga sprawa ze IE7 pod wzgledem dzialania przebija IE6 Firefoxy itp wzgledem szybkosci dzialania i nie jest juz kupą zjadajaca mase zasobow to jest duza szansa ze IE7 zwiekszy udzial w przegladarkach.

Czy google chce sie dzielic - chce nie chce a moze musi, moze analitycy przewidzieli i powiedzieli Google Wielki Bracie podziel sie z MSN baza indeksu i MSN sie podzieli bo wiesz wejdzie nowy windows i standardem bedzie IE7 ktore jest dobre i twoj udzial w rynku moze znacznie zmalec :).

To tak oczywiscie sobie zartuje.

Ale mysle ze google analizuje kazdy ruch MSN i woli miec znanego wroga niz tego ktorego nie zna.

Badz woli miec MSN po swojej stronie niz przeciwko.

Tak czy tak nie widze mozliwosci smierci branzy SEO bez smierci wyszukiwarek.

Jak ludzie beda szukac jak wyszukiwarki beda znajdowac tak SEO bedzie manipulowac.

Chyba ze Google zacznie indeks z palca ustawiac. ALe czym by tego nie robil nawet zwal to sztuczna inteligencja to sztuczna jest sztuczna i bedzie wiedziala tyle ile nauczy ja czlowiek, badz tyle ile jest zdolna sama sie nauczyc.

Czyli algorytmem przyszlosc bedzie sztuczna inteligencja ktora nadal bedzie zawodna jak czlowiek.

Bo w wypadku czlowieka mowi sie tak: ten sie nie myli co nic nie robi :).

Wiec spoko loko bedzie dobrze w najgorszym wypadku kilka rewolucji ;)

A jak wejdzie GoogleHit to bedzie calkiem fajnie.

A swoja droga skoro google jest takie rewelacyjne i zjada tyle pradu :) to dlaczego nie zainwestuja i nie postawia sobie elektorwni wiatrowej ;) przy takim apetycie na prad :) jeszcze by zarobili w okregu.

Odnośnik do komentarza
Udostępnij na innych stronach

Mniejsze wyszukiwarki kozystaja z baz tych wiekszych - to naturalne.

Nie wszystkie maja mozelicencje ale mysle, ze jakbym mial budowac wyszukiwarke, to wzialbym tez pod uwage (w jakimstam %) wyniki liczacych sie wyszukiwarek.

Co do rewolucji seo to juz od dawna byly glosy ze google chce nas coraz bardziej inwigilowac (czy to przez programy, czy poczte w gmail, czy statystyki analytics).

Jeśli tematyka maili w gmailu przyczynia sie do serwowania reklam zawiazanych z zainteresowaniami uzytkownika (i to nie tylko na stronach gmail jak ktos wczesniej zauwazyl) to czemu by nie wykozystac tych danych do tworzenia indeksu google.

Google moze sledzic jakie strony kto odzwiedza (wtyczki, programy), jak sie zachowuje na danej witrynie (analytics) i w koncu kata jest konwersja (platnosci google).

Jesli to wszystko sluzy do serwowania lepszych reklam to czemu ma nie sluzyc do serwowania lepszych wynikow ogranicznych?

Branza SEM stale sie zmienia i bedzie sie zmieniac. Czy dodaje sie dobre metatagi, czy nabija sie kliki robotami, czy dodaje sie linki i tworzy zaplecze, czy dzieli sie artykuly na czesci aby user odwiedzal u nas na stronie wiecej podstron.

Jak to Szook powiedzial SEO/SEM bedzie dopuki beda wyszukiwarki.

Pozdrawiam

Absurd, nonsens i hipokryzja.

Mój blog o SEO / SEM

Odnośnik do komentarza
Udostępnij na innych stronach

ale moze sytuacja sie kiedys zmieni i nie ty bedziesz :) placil SMSA zeby dodac sie do katalogi a katalog bedzie wysylal smsa zeby Ciebiue dodac :))).

i bedziesz mial na stronie

domena na jakiej zostane zaindeksowany: platnosci 3 zl ;) za wpis w robot.txt dajacy zgode na indeksacje przez okres 30 dni :).

Bo nie jest powiedziane ze tak ciagle bedziemy ulegali temu co mowi google msn i regulaminy innych wyszukiwarek.

Uzytkownicy nie sa tak wierni i slepi zeby dosyc ze placic, dosyc ze dac zarabiac to dawac sie jeszcze w uja robic.

A bajka o wyszukiwarkach jest taka krotka:

Zarabiaja bo pozwalaja im na to uzytkownicy.

To tak jakby ja mial recepte jak robic paliwo z ziemniakow a sasiedzi maja ziemniaki.

Dla dobra spoleczenstwa :) jak to tlumaczy google zeby ludzie mieli paliwo zabieralbym ziemniaki sasiadowi bo ja mam pomysl co z nimi zrobic to nie musze za nie placic ;).

A ze sasiad ma ziemniaki i robil z nich tylko frytki to musi sie pogodzic z faktem ze ja mu te ziemniaki zabierac bede bez zadnego procentu zysku dla niego.

Tak w skrocie dla mnie wyglada polityka wyszukiwarek. My mozemy bo to nasze wymyslone dobro ogolne i robimy to dla ludzi.

Moglbym sie zgodzic z takim podejsciem gdyby takie wyszukiwarki nie byly w zadnym stopniu komercyjne jak wiki czy dmoz.

Wszystko co komercyjne robi to dla swojej kieszeni a dobro uzytkownika to tylko chec zaspokojenia jego oczekiwan zeby zarabiac dalej kase.

Odnośnik do komentarza
Udostępnij na innych stronach

Super index- bardzo mozliwe, ekonomia jest najwazniejsza. To czy wyszukiwarki chca sie dzielic, czy nie chca nie ma znaczenia. Poprostu w perspektywie czasu i ekonomi moze beda musialy utworzyc jedno ogromne Data Center. Nie bez przyczyny google swoje data center stawia w poblizu elektrowni, to sa ogromne moce przerobowe i w pewnym momencie moze zabraknac energi na to wszystko i trzeba bedzie isc ugodowo.

Co do zmiejszenia roli "linku" w algorytmie wyszukiwarek- jestem o tym w 100 % przekonany, mysle jednak ze na pewno "link" nigdy nie zostanie odrzucony w 100 % przez algorytm wyszukiwawczy- ot najwyzej zmalaje jego wartosc. Wzgledem czego to zmniejszenie nastapi- nie wiem, ale wedlug moich domyslow dobrze mi pasuje to co mowicie, czyli wzgledem akcji wykonanej przez internaute. Tutaj pole do popisu bedzie mial wieksze teoretycznie msn, ale google rowniez ma cala mase uzytkow, ktore moga zbierac potencjalne informacje od usera, gmail, google analitycs, calender i cala masa innych juz gotowych oraz cala masa innych dopiero w trakcie realizacji...

Pytanie tylko czy to wszystko idze w ta strone? Czy zaplecza tych wyszukiwarek tworzone sa pod takie dane? Czy zaplecza tych wyszukiwarek takie dane od kazdego usera moze zebrac i wytrzyma natezenie? A moze wszystko opierac bedzie sie na okreslonej grupie odbiorcow a pozniej dane beda stabilizowane i systematyzowane dla calosci (tak jak np. teraz mierzona jest popularnosc danych programow w telewizj)? Tego mozemy sie tylko domyslac i wiernie sledzic sytuacje.

Dyskusja ta, to rozwiazania ktore nie wejda na pewno szybko, aczkolwiek bardzo prawdopodobne jest, ze bedziemy mieli w przyszlosci z czyms takim doczynienia. Jedno jest pewne, z czasem algorytm wyszukiwarki bedzie coraz lepszy, a ludzie pozycjonujacy strony beda musieli wymyslac coraz lepsze metody aby ten algorytm oszukac.

Zgadzam sie, ze branza SEO bedzie poki beda istanialy wyszukiwarki. Moze bedzie ona wygladac inaczej niz obecnie, ale mysle, ze bedzie nadal.

Na pewno pewnym zabezpieczeniem na przyszlosc jest "wlasna spora spolecznosc". Web 2.0 moze byc jakims rozwiazaniem...

Z mojego punktu widzenia, balbym sie zaryzykowac i postawic w 100 % moj biznes tylko i wylacznie na SEO... bo czasem moze sie okazac, ze zostane ja jeden i kilka milionow bezuzytecznego sajtu....

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności