Skocz do zawartości

Zagadka ?


graff

Rekomendowane odpowiedzi

nie link, a wejście użytkownika do serwisu jest głosem oddanym sa serwis

Wg mnie nie ma takiej mozliwości. Moźliwe jest jedynie połączenie wartości linków z działaniami użytkowników/innymi metodami. Zmniejszenie "klikalności" powoduje spadek na liście -> mniej wyświetleń-> mniej "klikania" -> niżej na liście....

Poza tym przecież ilość linków nie jest wcale złym wyznacznikiem. Sposób zbudowania strony oraz ilość linków w jakiś sposób mogą świadczyć o środkach zainwestowanych w promocję strony, o "profesjonaliźmie". Logiczne jest, że wyżej w wynikach powinny pojawiać się np. większe firmy niż mniejsze. Jeżeli chcę jechać na wycieczkę to na hasło "wycieczka" powinienem na pierwszym miejscu zobaczyć wielkie biuro podróży które zainwestowało kasę w promocję a nie mini-biuro pana Kazia z jakiejś wioski który dodał stronę do 3 katalogów bo na więcej nie ma ani czasu, ani kasy, ani wiedzy.

Wyszukiwarki mogą do pewnego stopnia walczyć z różnymi metodami pozycjonowania ale właśnie to w jaki sposób i jak intensywnie pozycjonowana jest strona może i powinno być w dużym stopniu wyznacznikiem wartości tej strony.

Co do zmierzchu SEO - dopóki jest jakiś mechanizm, jakieś zasady działania, dopóty będą ludzie którzy te zasady będą wykorzystywać, naginać, szukać w nich dziur. Co najwyżej zmienią się metody.

Z mojego punktu widzenia, balbym sie zaryzykowac i postawic w 100 % moj biznes tylko i wylacznie na SEO... bo czasem moze sie okazac, ze zostane ja jeden i kilka milionow bezuzytecznego sajtu....

W sumie jak z wszystkim w branży informatycznej. Trzeba być elastycznym i szybko reagować na zmiany. Przede wszystkim zdawać sobie sprawę z tego, że zmiany te nastąpią i to z pewnością szybciej niż nam to się wydaje.

Co do konkurencji i ewentualnej przewagi MSN z powodu IE7 - zastanawiam się, czy tak do końca można się opierać na danych "ściągniętych" od użytkowników. Wydaje mi się po prostu, że dane serwowane użytkownikom FF powinny być inne niż dla tych z IE (jeżeli już tymi danymi się kierować). Jeżeli można się tymi danymi kierować i tak się różnią to z tego powodu, że Ci użytkownicy się różnią.

dymna.jpg
Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 67
  • Dodano
  • Ostatniej odpowiedzi
Logiczne jest, że wyżej w wynikach powinny pojawiać się np. większe firmy niż mniejsze.

Otóż nie. Być może powinieneś uzyskać ofertę najbliżej zlokalizowanego biura. A może oferującego najtańszą wycieczkę ? A może takiego, którego wiarygodność poparta jest licznymi transakacjami ? Lista nabardziej majętnych firm (być może największych) znajdzie się na pierwszym ekranie w kolumnie AdWords. Stawki poszybują w górę, wzrosną zarobki wydawców. O ile zadbają o wiernych i licznych użytkowników.

wytrzyma natezenie?

Przecież będzie mniejsze niż dotychczas. Szpieg przekazuje adres do DC. Jeżeli jest w miarę świeża kopia - zero reakcji. Jeżeli nie ma - do kolejki oczekujących na indeksację. Szpieg często przesyła ten adres z różnych ip ? Częściej wysyłamy robota i wyżej notujemy. Sporadycznie wysyła - sporadycznie reindeksujemy i jednocześnie redukujemy pozycję w serpie. Do tego korekta pozycji uwzględniająca zachowania, decyzje, wybory użytkowników i ich geolokalizację. Objętość danych opisujących istotne zachowania userów jest minimalna - w porównaniu z tym, co każdego dnia - czy ma to sens, czy nie - robot G wyrywa mi z transferów.

Odnośnik do komentarza
Udostępnij na innych stronach

Otóż nie. Być może powinieneś uzyskać ofertę najbliżej zlokalizowanego biura. A może oferującego najtańszą wycieczkę ?

Przecież jeżeli chce najbliższe biuro to mogę to napisać. Właśnie wróciłem z Norwegii leciałem najtańszymi dostępnymi liniami - nie interesowało mnie gdzie mają swoje biuro, zapłaciłem kartą. Najtańszą? kolejna możliwość doprecyzowania.

Nie uważam, że obecny sytem się utrzyma. Nie uważam też, że jest błędny. Dojdą zapewne nowe mechanizmy. Poza tym jeżeli szukam najtańszej wycieczki to mogę to wpisać - wtedy powinienem otrzymać na górze serwisy umożliwiające porównanie cen. A taki serwis generalnie musi być duży, pobierać dane z wielu miejsc -> zazwyczaj jest to duża firma która ładuje kasę w promocję/jest prowadzony przez osoby z doświadczeniem w marketingu internetowym. A jeżeli nie mają kasy ani ludzi z doświadczeniem? To oznacza tylko tyle, że mieli chybiony pomysł na zarobienie kasy.

dymna.jpg
Odnośnik do komentarza
Udostępnij na innych stronach

Właśnie wróciłem z Norwegii

Ok, dzieląć włos na czworo chciałem jedynie wskazać, jak istotne są Twoje indywidualne preferencje. Byłbyś chyba zadowolony, gdyby następnym razem, w odpowiedzi na zapytanie "tanie loty norwegia biuro blisko płatność kartą" system wyrzucił serpa zawierającego na pierwszej pozycji firmę, z której usług skorzystałeś.

Skoro pytasz ponownie o tanie linie, to znaczy że byłeś zadowolony z usługi, w międzyczasie Twoja sytuacja nie uległa zmianie na tyle, żeby proponować Ci business class lub lot czarterowy. Dlatego na kolejnych pozycjach powinny znaleźć się firmy o zbliżonym profilu usługi - zweryfkowanych powtórnymi zapytaniami i wyborami innych Internautów. Może będziesz miał taką fantazję, żeby skorzystać.

Jednocześnie w kolumnie reklamowej powinny pojawić się oferty firm małych, wchodzących na rynek i konkurujących ceną lub specjalne oferty drogich zazwyczaj przewoźników.

Przypuszczam, że taka indywidualizacja wyników jest możliwa już dzisiaj. Jeżeli nie - to wkrótce będzie. Bez większego wysiłku mogę zasymulować takie zachowania systemu w Hm? Widzi tu ktoś miejsce na seo ?

Odnośnik do komentarza
Udostępnij na innych stronach

jak na razie to wybaczcie wszystko futurologia, jak dla mnie zbyt mało danych aby można było postawić jakiekolwiek wnioski w miare pewne co do przyszłości :rolleyes:

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

Superindex jest dobry dla każdej strony która uczestniczy w tym wyścigu z jednego bardzo ważnego względu. To użytkownik decyduje jakiej wyszukiwarki użyje, a wybierze taką która według niego miała najlepszą skuteczność. Za tem nie wybierze Y bo ma największy index, ale wybierze X bo tam wyniki miały najlepszą jakość. Przy następnej próbie wyszukania informacji znowu wejdzie do wyszukiwarki X, wyszuka i ... zobaczy reklamy.

Rywalizacja pomiędzy wyszukiwarkami wkroczy teraz znowu na stary tor( tyle że nowymi metodami ), kiedy to liczyła się jakość. Jednak o jakości w głównej mierze będą decydować użytkownicy. Wszystkie ich poczynania na stronie będą zapisywane, im więcej akcji zakończy się sukcesem tym strona będzie miała większe szanse by zaistnieć wsród internautów. Zacznie sie wojna w śledzeniu i interpretacji poczynań usera. Google ma mase gadżetów i bardzo dobre stosunki z Fundacją Mozilla, Microsoft to najpopularniejszy system operacyjny i przeglądarka, Yahoo – no i niestety nie wiem co Yahoo ma oprócz swojego portalu.

Kolejnym problemem jest to że ten superindex w tym stadium jest bardzo niestabilny, czemu ruchy Google mają powodować stworzenie bezsensownych kopii starych stron. Chyba że GYM stworzyło nowe DC z uschematyzowaną bazą danych i wszystkie kopie stron są powoli przenoszone do tej bazy. W pewnym momencie potrzeba sprawdzić jakość tej bazy danych( mówie teraz o technologi ) ,jest puszczana na 'głęboką wode' czyli na indexy GYM. Jeżeli coś będzie źle działać, to prace zaczynają sie od nowa i znowu jest wgrywany stary index.

Największym pytaniem jest: Jak nowa wyszukiwarka( np. Projekt Graffa albo mój ) mogła by zdobyć dostęp do takiej bazy danych?

Teorie spiskowe górą :rolleyes:

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

wytrzyma natezenie?

Przecież będzie mniejsze niż dotychczas...

Nie jestem na tyle dobry technicznie i nie mam dokladnych danch na ten temat, ale wedlug mnie jezeli google mialoby serwowac dla kazdego uzytkownika sprofilowane wyniki, ktore zalezaly by od zachowania uzytkownika, "ktory byl by sledzony" (jego czas spedzony na danej witrynie, to gdzie klikal, historie wyszukiwan i mase innych zaleznosci, ktore teoretycznie da sie uzyskac) plus wyniki zalezaly by rowniez od zachowania ogolu ludzi, to wydaje mi sie ze obciazenie bylo by wieksze. Ale tak jak mowie to tylko moj domysl bo takich rzeczy nie wiem. Jak sie myle to sory.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie jestem na tyle dobry technicznie

Ja też nie. Zauważ, że trzy posty wcześniej byłem na etapie "uśrednienia do dzielnicy", a teraz proponuję pełną indywidualizację wyników. Po prostu teoria sie rozwija :-)

/*

Korekta: taką opcję przedstawił tkinikat już ok 10 rano - znacznie wyprzedzając proces naturalnego rozwoju teorii :-)

*/

Tu trzeba byłoby zastosować szablon zachowań. Jeżeli kopia zachowana w DC jest zgodna z tym, co zostaje użytkownik to taki zapis 165.22.78.95-212.90.88.167-1142224504-65548-L17-L26-L00-L67-T4 mógłby zawierać pełną historię Twojej wizyty na stronie i podjętych w tym czasie decyzji. Nie wiem, jak obejść zmienność contentu wynikającą np. z rotacji linków lub newsów. To problem G :-) Chcę tylko wskazać, że niedługim ciągiem można opisać Twoje zachowania. Zapis wizyt może podlegać kompresji na Twojej maszynie co 100 uruchomień lub raz w tygodniu i w takiej wstępnie obrobionej formie zrzucony na DC.

zdobyć dostęp do takiej bazy danych?

A czym ja bym to obrobił ? Serwerem businessPRo2 ? :-) MMP - małe jest piękne Zostaję przy własnym indeksie.

wszystko futurologia

Kto tak twierdzi - ten obudzi się z łapą w nocniku.

Może zróbmy zrzutkę na hotel i stolik. Michał ma blisko do SF - mógłby wystąpić jako ambasador PiO na Web2.0 i podsłuchać kilka rozmów.

Odnośnik do komentarza
Udostępnij na innych stronach

Jezeli obciazenie bylo by mniejsze, to tylko jeszcze jeden plus dla tej teori :rolleyes:

Yahoo – no i niestety nie wiem co Yahoo ma oprócz swojego portalu.

Po rozmowie z szookiem doszedlem do wniosku, ze yahoo to pionek w porownaniu z msn czy google, wiec jego nie biore zbytnio pod uwage :(. Zreszta z tego co mowil szook to yahoo mialo byc kupione przez jedna z wyzej wymienionych firm, ale chyba nic z tego nie wyszlo...albo rozmowy jeszcze trwaja- nie wiem. Niestety nie mam wiecej informacji na temat poczynan yahoo i jego zaplecza.

Jak ktos ma to chetnie poczytam o yahoo :P wiec moze mi podeslac ciekawe linki na PW :)

Odnośnik do komentarza
Udostępnij na innych stronach

pionek to moze nie ale napewno google i msn maja wieksze mozliwosc.

Google juz ma marke z ktora musi cos zrobic i zakonczyc wieczne serwowanie wersji beta.

Google przeliczylo sie troche z google video i zauwazylo ze cos musi zmienic ze juz nie jest tak jak mysleli ze wszystko bedzie google a google bedzie traktowane jak portal. Video nie dalo im tego czego oczekiwali.

MSN wiadomo Internet Explorer ktory moze sie okazac sporym koniem trojanskim dla googlasa, pozatym nie sade by w przyszlosci udzial IE spadal lecz uwazam ze wrecz zacznie wzrastac.

Coraz czesciej mozna spotkac opienie wole dac te 300 zl wiecej i miec legalnego windowsa, czesto tez linuxy sa instalowane na starcie do komputerow w hipermarketach ale ich zywot krotki.

Wiec jakby uklad google mozilla nie jest mocnym zagrozeniem dla msn internet explorer. Ale w sumie i nie musi bo google ma juz marke.

To co google chce wprowadzic w wiekszosci jest opcja to co msn chce moze wprowadzic jako dodatek windows instalowany wraz z nim wiec droge maja znacznie latwiejsza.

Co do zakupow w sieci nie pamietam w koncu jak sie zakonczyla sprawa.

Wiem ze bitwa byla o AOL i Yahoo pomiedzy msn a google i chyba google dalo wiecej za yahoo ale nie doczytalem juz pozniej zadnego hita na temat faktycznego zakupu - wiec ile w tym prawdy a ile nie ciezko powiedziec bowiem sam zaczytalem to gdzies na zagranicznych serwisach. Aol jak pamietam mialby trafic do MSN albo sytuacja byla odwrotna.

A ja wam powiem ze jestesmy leszcze - bo czechy nie pozwolily sobie zagarnac rynku jakos moc google tam nie dziala a domene google.cz ma inna czeska wyszukiwarka.

Wyobrazacie sobie inna sytuacje ze netspirnt ma google.pl ? przeciez zaraz by ja przegrali bo polacy nie potrafia ochronic swojego rynku poza rynkiem rolniczym iloscia przyznawanych zezwolen na taxowki itp.

A gdzie limity na ilosc wyszukiwarek ilosc sklepow z bielizna itp.

Tak czy tak denerwuje mnie fenomen google - zauwazcie jak oni siebie cenia - gadzetow nie rozdaja oni je sprzedaja siegajac rangi dobrego produktu ala NIKE.

To mowi ze nalezy sie cenic tylko my polacy jestesmy za ciency w uszach i zachlystamu sie wszystkim co amerykanskie a oni nas kopia w du*e traktujac nas jak ludzi z ziemianki czego prostym przykladem jest wiza dla polaka. Dobry prezydent powiedzialby krotko - wizy stop albo wy takze bez wiz nie wjedziecie, stop cocacoli stop usa. :( prawde mowiac denerwuje mnie ten kraj okropnie i ich nadwyraz duze poczucie wlasnej wartosci. Tam smiec ze slamsu lepiej sie ceni niz szef nie jednej dobrej polskiej firmy.

Dobra ide napic sie piwa :P:rolleyes:

Odnośnik do komentarza
Udostępnij na innych stronach

OT:

>> To co google chce wprowadzic w wiekszosci jest opcja to co msn chce moze wprowadzic jako dodatek windows instalowany wraz z nim wiec droge maja znacznie latwiejsza.

Chyba że znowu Komisja Europejska będzie chciała zarobić na micorosofcie :rolleyes:

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

rotfl

Szooku, rozwinąłeś teorię w niespodziewnym kierunku :-)

A za chwilę przyjdzie Jeż i powie tak: ale osso chozzi ? nie to miałem na myśłi...

Co do obciążeń związanych z indywidualizacją serpa i szpiegowaniem. Przecież to dotyczyłoby zaledwie miliona-dwóch milionów serwisów i raptem 600 milionów użytkowników. Reszta serwisów ma wejścia incydentalne i bardzo szybko wypadłaby z obiegu z inicjatywy samych właścicieli. Objetość sieci uległaby radykalnej redukcji, odciążone zostałyby serwery, usunięte zbędne kopie śmietników, ograniczenie aktywności robotów odciążyłoby łącza, spadłaby energochłonność... sielanka :-)

Odnośnik do komentarza
Udostępnij na innych stronach

graff caly ja :(

:rolleyes:

Bo zdenerwowalem sie :P ze szwagier kupil sobie nowego della za 300 funtow w UK

i mowi ze tyle to na mieszkanie wydaje za tydzien.

A w PL jakis nie kupie 4 laptopow :) za wartosc czynszu miesiecznego .

HEH bo znowy zmienie temat tak czy tak denerwuja mnie produkty USA :) nie z winy USA tylko z winy ze polski go*****y rzad nie potrafi zadbac prawnie o nasz rynek :).

Tak czy tak :) wszystko fajnie ja sie ciesze jak google sie cieszyt bo moze zaczna placic smsem za zgode na wjazd googlebotem ;).

Odnośnik do komentarza
Udostępnij na innych stronach

Mnie tylko zastanawia jak Google pobiera stronę używając "trojanów". Jeż w tamtym wątku pisał, że googlebot nie wszedł na stronę. Mi się nie chce wierzyć, że cały kod strony jest wysyłany z komputera użytkownika na serwer google.

Z narzędzi szpiekowskich mam tylko PageRank status do Firefoxa. Wszystko czego świadomie nie przepuszczę, blokuję w firewallu.

Jakiś czas temu została zaindeksowana zupełnie nowa domena. Nigdzie jej nazwy nie udostępniałem, tylko wchodziłem Firefoxem z PR statusem. Dosyć szybko pojawił się googlebot i niedokończona strona pojawiła się w indeksie.

PageRank status używa cookies. Nie wiem, czy w ten sposób cachuje sobie wartości PR, czy to Google zapisuje to ciacho. Zapisywane są w nim różne informacje, niezwiązane z samym PR.

Sprawdziłem to używając sniffera (pod Win XP) Ethereal i połączyłem się z nieistniejącą domeną, żeby została sama komunikacja [ja] <-> [google]. Wkleję tu zawartość tych pakietów, bo nie potrafię tego dokłaniej zinterpretować. Mam nadzieję, że ma to jakiś związek z omawianym tematem.

1. Przeglądarka akceptuje cookies:

Source [ja] -> Destination [google]

GET /search?client=navclient-auto&ch=62697425822&ie=UTF-8&oe= UTF-8&features=Rank:FVN&q=info:http%3A%2F%2Fwww.ujhguyt90yutiyuthjlghjlgf.com%2F HTTP/1.1
Host: toolbarqueries.google.com
User-Agent: Mozilla/4.0 (compatible; GoogleToolbar 2.0.114-big; Windows XP 5.1)
Accept: text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,image/png,*/*;q=0.5
Accept-Language: pl,en-us;q=0.7,en;q=0.3
Accept-Charset: ISO-8859-2,utf-8;q=0.7,*;q=0.7
Keep-Alive: 300
Connection: keep-alive
Cookie: PREF=ID=a988a642d8a51a20:TM=1151919321:LM=1151919321:S=EEty8pQ1PQFdubsi; rememberme=false; __utma=173272373.1771142465.1152558905.1152558905.1152558905.1; __utmz=173272373.1152558905.1.1.utmccn=(referral)|utmcsr=labs.google.com|utmcct=/|utmcmd=referral

Source [google] -> Destination [ja]

HTTP/1.1 200 OK
Cache-Control: private
Content-Type: text/html
Server: GWS/2.1
Transfer-Encoding: chunked
Date: Thu, 24 Aug 2006 19:09:09 GMT

2. Przeglądarka nie akceptuje cookies:

Source [ja] -> Destination [google]

GET 
/search?client=navclient-auto&ch=62542758603&ie=UTF-8&oe= UTF-8&features=Rank:FVN&q=info:http%3A%2F%2Fwww.6568uy6890yutiyuthjlghjlgf.com%2F HTTP/1.1
Host: toolbarqueries.google.com
User-Agent: Mozilla/4.0 (compatible; GoogleToolbar 2.0.114-big; Windows XP 5.1)
Accept: text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,image/png,*/*;q=0.5
Accept-Language: pl,en-us;q=0.7,en;q=0.3
Accept-Charset: ISO-8859-2,utf-8;q=0.7,*;q=0.7
Keep-Alive: 300
Connection: keep-alive

Source [google] -> Destination [ja]

HTTP/1.1 200 OK
Cache-Control: private
Content-Type: text/html
Set-Cookie: PREF=ID=469f76ba485dce5d:TM=1156446423:LM=1156446423:S=4NfZPCOmNzExD3qx; expires=Sun, 17-Jan-2038 19:14:07 GMT; path=/; domain=.google.com
Server: GWS/2.1
Transfer-Encoding: chunked
Date: Thu, 24 Aug 2006 19:07:03 GMT

Nie chodzi mi o te standardowe cookies googla, tylko o te __utmz. Przeglądając ciastka zapisane w moim FF, mam tego typu:

196723548.1135739178.2.2.utmccn=(organic)|utmcsr=google|utmctr=monitor+panoramiczny|utmcmd=organic

205104957.1124168737.1.1.utmccn=(referral)|utmcsr=forum.optymalizacja.com|utmcct=/index.php|utmcmd=referral

Zapisuje je jakoś google przez PR status, czy PR status tylko dla własnych potrzeb? Czy może wszystko pomieszałem?

Autor postu nie ponosi żadnej odpowiedzialności za ewentualne szkody wynikłe z wykorzystania zawartych w nim informacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Rafał zapomiałeś tylko o jednym małym szczególe.

Skoro ta domena nie istnieje to po co GToolbar miałby wysyłać inne dane oprócz tych co widzimy? :rolleyes:

Musiałbyś stworzyć site na nowej domenie( najlepiej .pl ) wtedy wejść i sprawdzić jakie nagłówki są wysyłane.

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności