Skocz do zawartości

Zagadka ?


graff

Rekomendowane odpowiedzi

  • Odpowiedzi 67
  • Dodano
  • Ostatniej odpowiedzi

Jakiś czas temu została zaindeksowana zupełnie nowa domena.

Zostaje jeszcze whois, nie wiemy czy google nie sprawdza takich spraw oraz to, że ten toolbar od PR generuje jakąś stronę, z której bot może przejść dalej.

Z tym toolbarem, ludźmi i google, powiem tylko tyle.

Jeśli wyszukiwarka zrzuci cała robotę z bota na ludzi to bedę pierwszy, który wystawi im fakturę za transfer i zażyczę sobie jakiś grantów za to, że czerpią korzyści dzięki czynnością jakie ja wykonuję.

Bo to nie moja broszka by google wiedziało jak i która strona jest odwiedzana.

Ktoś napisał, że jakby tak było to zostanie ileś tam stron a reszta padnie bo nie będą po nich chodzić ludzie.

Jakby tak było to google da niezły prezent innym mediom takim jak TV czy radio bo przecież by wchodzili ludzi trzeba jakoś rozreklamować stronkę a w szybkiej reklamie na razie góruje TV a nie internet i długo jeszcze tak będzie.

Czy może zapłaci się google za to by mimo tego, że strona świeżynka i nikt jej nie zna aby była w wynikach jak najwyżej.

Idąc dalej to można napisac po co wyszukiwać, wpisujesz hasło i wyskakuje Ci 100 najczęściej odwiedzanych stron w danej tematyce, tylko znowu co z nowymi ?

Z cyklu "Przysłowia Polskie":
- "We wakacja jak i w wiosnę - Google podskakuje se radośnie."
Mój blog o pozycjonowaniu i nie tylko... Strona firmowa - www.antygen.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Jakiś czas temu została zaindeksowana zupełnie nowa domena. Nigdzie jej nazwy nie udostępniałem, tylko wchodziłem Firefoxem z PR statusem. Dosyć szybko pojawił się googlebot i niedokończona strona pojawiła się w indeksie.

Zerocool przypomniał w innym miejscu o szczególe, którego często nie bierze się pod uwagę:

z reguły wystarczy przypisać domenę do DNS-ów aby pojawiła się jako link w top100.pl

googlebot nie wszedł na stronę

Ale weszły inne boty i stąd teoria o wymianie indeksów

jak Google pobiera stronę używając "trojanów" (...) kod strony jest wysyłany z komputera użytkownika

Wystarczy kontrolka statusu kopii na DC. Jeżeli istnieje potrzeba jej odświeżenia - pojawi się robot.

Jeśli wyszukiwarka zrzuci cała robotę z bota na ludzi to bedę pierwszy, który wystawi im fakturę za transfer

Nie, nie - układ, o którym piszemy spowodowałby "racjonalizację" aktywności robotów, ale nie wyeliminowałby ich stosowania. Cała rewolucja sprowadziłaby się do eliminacji aktuialnie stosowanego algorytmu na rzecz rankingu ustalanego w oparciu o aktywność userów.

Zostaje jeszcze whois, nie wiemy czy google nie sprawdza takich spraw

Nie sprawdza - dostałem to kiedyś na piśmie od G. Plus sugestia zerocoola.

wpisujesz hasło i wyskakuje Ci 100 najczęściej odwiedzanych stron w danej tematyce, tylko znowu co z nowymi

Nie 100 najczęściej odwiedzanych, tylko 100 o najwyższym "współczynniku aktywności użytkowników" w stosunku do liczby odwiedzin i ich czestotliwości (podjęte akcje typu wypełnienie formularza, przejścia strona-strona, ściągnięcie pliku, transakcja handlowa, etc)

odezwę się za jakiś czas

Jeżu, wystawiasz naszą cierpliwośc na ciężką próbę ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

Warto wreszcie powiedzieć, że toolbary i setki form googlowskich trojanów (...) powstały tylko po to, żeby Google powoli odchodziło od robotów

Prawdopodobnie za czas niezbędny znowu będziesz musiał podać link do tego postu pisząc, że "już o tym pisałem", a będzie to ostatnia wypowiedź na PiO. To oświadczenie powinno już dzisiaj wstrząsnąć seobranżą. Jeżeli powiązać je z teorią i praktyką superindex-u, to... polecam uruchamianie programów lojalnościowych dla uu póki czas.

Forumowiczu - jeżeli wiążesz swoja przyszłość z seo, to opraw sobie ten wątek w ramki. I czytaj Jeża ze zrozumieniem ;-)

Ja jednak pozwolę sobie nie przyłączyć się do kręgu wzajemnej adoracji ;-)

1) Co to jest trojan ? Rozumiem że można nie lubić firmy Google, ale stosowanie takiej retoryki kojarzy mi się raczej z artykułami w brukowcach, niż z tonem rzeczowej dyskusji.

2) Jeż nie jest pracownikiem firmy Google, zatem jego oświadczenie raczej nie ma legitymacji do wstrząsania czymkolwiek, również ramki proponowałbym zachować dla lepszych celów ;)

Sama teoria dążenia do eliminacji zastosowania robotów, jakkolwiek na pewno sensacyjna, jest łatwa do obalenia. Wystarczy odpowiedzieć sobie na pytanie, czy taki zabieg spowodowałby zwiększenie wielkości i jakości indeksu? Otóż nie, wręcz przeciwnie.

A czy algorytm bazujący na popularności poprawi jakość wyników? No halo :( Jakość może się wiązać z popularnością, ale stawianie znaku równości między popularnością i jakością to błąd.

Superindex ? :) Byłbym wdzięczny za konkretną i precyzyjną definicję, bo w przeciwnym wypadku grozi nam kolejne słowo-klucz typu "sandbox", który aktualnie oznacza wszystko i jest odpowiedzialny za wszystko, poczynając od kwaśnienia mleka na CPC w AdSense kończąc.

Rozpoczęcie jest proste!

Odnośnik do komentarza
Udostępnij na innych stronach

Skoro ta domena nie istnieje to po co GToolbar miałby wysyłać inne dane oprócz tych co widzimy?

Musiałbyś stworzyć site na nowej domenie( najlepiej .pl ) wtedy wejść i sprawdzić jakie nagłówki są wysyłane.

Pobierałem w ten sam sposób również kilka innych stron, zaindesowanych, nie zaindeksowanych. Komunikatcja z Google przebiegała dokładnie tak samo, tyle, że było mi trudniej wyłapać potrzebne pakiety wśród tych odpowiedzialnych za pobranie strony. (Tylko niewiele trudniej, ale poszedłem na łatwiznę.)

Przydałoby się sprawdzić wiele zapytań, może nie za każdym razem dzieje się coś ciekawego?

z reguły wystarczy przypisać domenę do DNS-ów aby pojawiła się jako link w top100.pl

To była domena com.

Autor postu nie ponosi żadnej odpowiedzialności za ewentualne szkody wynikłe z wykorzystania zawartych w nim informacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Czy wy ludzie nie macie dziś jakiś zajęć do zrobienia?

Np odpalenie 10 nowych qlwebów??

Ta dyskusja to nic innego jak kreowanie teorii spiskowych i pseudo-naukowego bełkotu :puknijsie:

Google już niedługo stanie się pierwszym światowym szatanem, wyprzedzając w rankingu USA i Microsoft. :D

Nie zapomnijcie w dyskusji wspomnieć o Google Checkout tu również Google ma spore pole do popisu jeżeli chodzi o wiedzę na nasz temat.

Odnośnik do komentarza
Udostępnij na innych stronach

Ta dyskusja to nic innego jak kreowanie teorii spiskowych i pseudo-naukowego bełkotu puknijsie.gif

Być może, ale skąd wiesz, czy tak naprawdę nie jest/nie będzie :D

Tak czy inaczej, zmienią się sposoby pozycjonowania stron.

Np. wejdą trojany, których jedynym celem jest klikanie na odpowiednie linki w wyszukiwarkach :puknijsie:

Odnośnik do komentarza
Udostępnij na innych stronach

Rozumiem że można nie lubić firmy Google, ale stosowanie takiej retoryki kojarzy mi się raczej z artykułami w brukowcach, niż z tonem rzeczowej dyskusji

Kałach, cenię sobie Twoją opinię, bo znasz się na rzeczy. Przypuszczam jednak, że nikt z dotychczas wypowiadających się tutaj nie potraktował sprawy z taką powagą, z jaką Ty to uczyniłeś. Pytanie - czy to jest zasadne podejście do tematu. Chyba nie.

Dostrzegam NIENATURALNE czyli ODMIENNE od dotychczasowych zachowania systemów, które nominalnie nie są ze sobą powiązane. Cała reszta to prowokowana zabawa w budowę scenariusza prawdopodobnych przyczyn i następstw.

stawianie znaku równości między popularnością i jakością to błąd

Oczywiście, że tak. Jak w każdej dziedzinie życia, tak i tu obowiązuje zasada, że "zły pieniądz wypiera dobry". Bo dlaczego nie ? Nie ma też powodu, by nie uzupełnić teorii mechanizmem ochrony pewnych zasobów - tak jak się to teraz czyni w odniesieniu do .gov

Chcesz definicji superindex-u ? Nie wiem, czy przypadnie Ci do gustu: integregracja niezależnych dotąd sieci DC głównych graczy na rynku wyszukiwarek celem eliminacji powielania wykonywanej pracy. Chociażby na rzecz ograniczenia energochłonności procesu gromadzenia danych i ich obróbki w podstawowym zakresie. Irracjonalne ?

Dido - trzeba odrobiny wyobraźni, a przede wszystkim odwagi, by ryzykować na publicznym forum udział w tego rodzaju zabawie. Skwitowac temat tak jak to zrobiłeś - nic prostszego. Nie przeszkadzaj sobie zatem i pracuj nad swoim zapleczem.

Odnośnik do komentarza
Udostępnij na innych stronach

to o czym jest mowione jest bardzo logiczne.

Zakladajac prosty przyklad ze polskie wyszukiwarki buduja jedno DC ktore maja za zadanie sciagac strony.

Rozkladaja koszta na 3-4 firmy.

Kazda z nich dba juz bardziej o sprzet do obliczen algorytmu jak i wypluwania wyników.

Zakladajac ja na 15 mbitach bede mogl sciagnac blablabla stron, drugi user moglby sciagnac blablabla stron, dodac te dwa czynniki i algorytmy beda moglby sprawniej obliczac to co powinny.

Bo ja uwazam ze jest masa dobrych algorytmow tylko sie nie wyrabiaja w tak duzej ilosci stron gdyby pracowaly na 1 mln stron dawalyby doskonale rezultaty w wykrywaniu crosslinkingu, tymczaowych linkow itp.

Bo dane bylyby czesto pobierane i latwo byloby wykryc wszelkiego rodzaju duplikaty i i inne badziewia.

"a tak poza tematem - temat stary :puknijsie: ale przyszlo mi do glowy jak kolega dido wspomnial o qlwebach - jak wiele osob pomyslalo o tym ze qlweby opierajace sie o meta moga szkodzic i oslabiac meta :D naszej strony.

Bo przeciez czym bardziej unikalny posiadamy opis tym lepiej - dodajac sie do setnego katalogu dzielimy sie swoimi metatagami i nie sa one juz unikalne wiec sa bardziej dodupne :yahoo:.

Tak wiec czas pomyslec zeby dla katalogow przygotowywac np rotacyjne meta a same katalogi powinny miec jedno UA i na to UA powinno rotowac meta tak zeby byly zawsze inne a szczegolnie inne niz te co mamy na stronie bo mozna czesto spotkac ze szczegoly opisy w danym katalogu uzywaja bezposredniego metatagu TITLE naszej stronki."

Odnośnik do komentarza
Udostępnij na innych stronach

Chcesz definicji superindex-u ? Nie wiem, czy przypadnie Ci do gustu: integregracja niezależnych dotąd sieci DC głównych graczy na rynku wyszukiwarek celem eliminacji powielania wykonywanej pracy. Chociażby na rzecz ograniczenia energochłonności procesu gromadzenia danych i ich obróbki w podstawowym zakresie. Irracjonalne ?

Nie, dla mnie to jest racjonalne i ekologiczne. Można się śmiać z oszczędzania energii elektrycznej, ale jeżeli większość w Internecie to makulatura i śmieci, to należy minimalizować koszty.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeż wykonał efektowny unik stawiając pytania w innym wątku, więc ja na finał wykonam podsumowanie naszych ustaleń.

1. Dochodzi do fizycznej integracji infrastruktury GYM przeznaczonej do gromadzenia i wstępnej obróbki danych. Powstaje niezależny podmiot obsługujący przedsięwzięcie - kwestia ujednolicenia standardów, obsługa procesu "merge" odrębnych dotąd zasobów.

Skutki:

a. firmy koncentrują się na działalności usługowej, optymalizują swoje niezależne algorytmy.

b. alternatywne zastosowanie robotów powoduje radykalną redukcję transferów związanych z indeksacją/reindeksacją.

c. spadają podstawowe koszty pozyskiwania i utrzymania zasobów.

d. spadają koszty utrzymania serwerów (transfer) przez wydawców.

2. G, rozwijając swój algorytm rezygnuje z dotychczasowych rozwiązań. Służą temu obecne już w sieci i naszych komputerach systemy nadzoru użytkownika. Docelowym rozwiązaniem jest pełna indywidualizacja serpów pod kątem ustalonego i aktualizowanego profilu użytkownika.

Skutki:

a. Subiektywna ocena jakości oferowanych wyników - dokonywana przez użytkownika - sięga zenitu.

G ugruntowuje pozycję monopolisty.

b. SEO traci rację bytu na rzecz SEM - konkurencja wymusza podniesienie standardu treści, oferty i obsługi klienta. Nie ma fizycznej możliwości manipulacji wynikami wyszukiwania. Koniec branży.

c. Znikają śmietniki, których utrzymywanie nie ma już sensu, więc w bezinwestycyjny sposób przyrastają moce obliczeniowe systemu.

d. Następuje wtórna i znowu radykalna redukcja obciążenia sieci przesyłem związanym z indeksacją/reindeksacją zbędnych i likwidowanych zasobów.

e. Zmienia się jakość sieci, w której tylko dbałość o standard zasobów gwarantuje sukces.

W ten sposób realizują się wszystkie, stawiane dzisiaj postulaty, dotyczące Internetu.

Na deser nieodległa w realizacji - z historycznego punktu widzenia - science fiction:

a. Analiza zachowań Internautów - każdego z osobna i jako społeczności - umożliwia precyzyjne określenie nastrojów społecznych z dokładnością do ulicy.

b. Administracje dochodzą do wniosku, że takie narzędzie ułatwia sprawowanie władzy, otwierając możliwość podejmowania interwencji z wyprzedzeniem i z chirurgiczną dokładnością (pod względem lokalizacji, celu, środków i nakładów).

c. Funkcje nadzorcze przejmuje ONZ, ale wkrótce rodzi się pytanie, dlaczego nie wykonać kolejnego kroku ?

d. W ślad za superindex-em, powstaje superrząd. Proces globalizacji dobiega końca. Językami urzędowymi państwa Ziemia są angielski i chiński

THE END. The End ? :puknijsie:

Odnośnik do komentarza
Udostępnij na innych stronach

Mały komentarz do

1. Dochodzi do fizycznej integracji infrastruktury GYM przeznaczonej do gromadzenia i wstępnej obróbki danych. Powstaje niezależny podmiot obsługujący przedsięwzięcie - kwestia ujednolicenia standardów, obsługa procesu "merge" odrębnych dotąd zasobów.

Albo to zostanie potwierdzone oficjalnie, albo muszą zniknąć "kopie stron", bo na niektórych stronach jest napisane: twoje IP to ...

Myślenie nie boli, nawet w wakacje.

Zapraszamy na studia podyplomowe pt. Nowoczesne sieci i usługi telekomunikacyjne

Odnośnik do komentarza
Udostępnij na innych stronach

b. SEO traci rację bytu na rzecz SEM - konkurencja wymusza podniesienie standardu treści, oferty i obsługi klienta. Nie ma fizycznej możliwości manipulacji wynikami wyszukiwania. Koniec branży.

Wszystko można zmanipulować.

Niektórzy podają przykład, że jeśli wyniki będą w pełni losowe, to SEO zniknie. Nawet wtedy nie zniknie, bo takie coś też można oszukiwać.

Docelowym rozwiązaniem jest pełna indywidualizacja serpów pod kątem ustalonego i aktualizowanego profilu użytkownika

Wtedy można np. robić różne wersje stron/podstron, pasujące do różnych profili.

Znikają śmietniki

Wtedy zamiast śmietnikami, będzie można pozycjonować wartościowymi stronami, co pewnie spowoduje duży wzrost cen SEO.

Subiektywna ocena jakości oferowanych wyników - dokonywana przez użytkownika

Skoro ludzie moje niektóre śmietniki traktują jak wartościowe strony... :puknijsie:

Autor postu nie ponosi żadnej odpowiedzialności za ewentualne szkody wynikłe z wykorzystania zawartych w nim informacji.

Odnośnik do komentarza
Udostępnij na innych stronach

Docelowym rozwiązaniem jest pełna indywidualizacja serpów pod kątem ustalonego i aktualizowanego profilu użytkownika.

Czy to nie wymaga zbyt duzych mocy obliczeniowych? Czy to nie jest (w uproszczeniu), indywidualny algorytm dla kazdego internauty? W dodatku bardzo zmienny w czasie ? w search msn można było suwakami zmieniać jakość wyników, pewnie nikt nie korzystał i w live tego niema.

Czy odejdzie w niepamięć pytanie o pozycje strony w DC ? Co to wtedy będzie oznaczało ? A co z tymi, którzy nie dadzą się szpiegować, albo to radykalnie ograniczą ?Czy będą jakieś "obiektywne" wyniki ? Tylko co to słowo znaczy ?

Sporo pytań, ale będzie ciekawie. (Od tygodnia nie moderowałem katalogów, może dać sobie spokój :puknijsie: )

Eksperyment Discover.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności