Skocz do zawartości

Czy komus Gooble odbanowalo wyszukiwarke/katalog?


Olo

Rekomendowane odpowiedzi

  • Odpowiedzi 47
  • Dodano
  • Ostatniej odpowiedzi
Wręcz przeciwnie. Całkowicie zgadzam się z EdithG

Okej, pisałem to już na jakimś blogu, który odnosił sie do tego tematu i bloga Grafa.

Pomyśl ile ludzi zadeklaruje chęć udziału w takiej akcji, ilu zadeklaruje i dalej będzie robiło swoje, kto zostanie i na jak długo, widząc, ze dookoła ludzie tak naprawdę mają to w du**e i dalej robią swoje - kilka miesięcy to optymistyczna wersja. Mi tez się to podoba, jednak rzeczywistość jest inna, sorry winetou.

edi:Ewentualnie dalej robić swoje i promować co innego,ale to się mija z celem.

Content is Dead.

Community is King Now

System wymiany linków stałych? Tutaj

Odnośnik do komentarza
Udostępnij na innych stronach

Mam nawet wszystko co byloby potrzebne do stworzenia takiej wyszukiwarki, spajdery, archwizzatory itp wszystko wlasnej robotki :D

Takie które byłoby wstanie konkurować z G ? - nie mówie tutaj oczywiście o algorytmie odpowiadającym na zapytanie użytkownika i ustanawiające ranking.

Raczej bardziej interesuje mnie jak sobie radzisz z zasobami/ przechowywanie danych/prędkość i wydajność parsowania.

Mi się udało max dojść do magicznej 5 mln url/site na serwer i jest to w moim wypadku maximum.

Nie przejmowałbym się banem a tym bardziej olałbym myślenie nad odbanowaniem. Nawet jak ci coś przywróci ten adres to będzie na cenzurowanym. Więc lepiej skup się i postaw 300 nowych bo więcej czasuj stracisz na myśleniu czy da się odbanowac. Kiedyś sam się zastanawiałem, dzisiaj wole postawić 3 kolejne.

Odnośnik do komentarza
Udostępnij na innych stronach

Całkowicie zgadzam się z EdithG

Tylko teoretycznie i technicznie. W praktyce - bez szans. To się musi wszystkim opłacać, a nikt nie jest w stanie zaproponować konkurencyjnej marchewki. Poza Chińczykami z ich nadwyżką budżetową ;-)

Olo, nie wiem - nie słyszałem. Jedna z moich domen wróciła po dwóch latach, ale to przecież epoka w sieci.

Odnośnik do komentarza
Udostępnij na innych stronach

"Takie które byłoby wstanie konkurować z G ? - nie mówie tutaj oczywiście o algorytmie odpowiadającym na zapytanie użytkownika i ustanawiające ranking." ODP: Nie no nie mam algorytmow analizujacych

"Raczej bardziej interesuje mnie jak sobie radzisz z zasobami/ przechowywanie danych/prędkość i wydajność parsowania.

Mi się udało max dojść do magicznej 5 mln url/site na serwer i jest to w moim wypadku maximum."

ODP:Ja sie nie bawilem w backup i wykorzystalem 2 dyski 250G - ale dziwnie wychodzi to 10 mln, czy 2 razy to co TY :D - poprostu stworzylem mechanizn polegajacy na zapisie najbardziej potrzebnego info sciagnietych stron na nazwijmy to glownym serwerze, ktory posiada wsystkie informacje, gdzie sciagnieta sie strona znajduje, pod jaka domena itp i wrazie czego jednym przycisnieciem klawisza po awarii mozna ja zaciagnac na nowo.

Ale zastanawialem sie wczesniej na pakowaniu zaciaganych stron ( bo przeciez to sam tekst ) i tutaj spoks moznaby dojsc do 40 milionow na serwer :D

Tylko, ze ja teraz nie zaciagalem calych stron zywcem a jedynie wzielem z nich troche znakow :) takze wszystko wyglada jak katalog tyle, ze z podstronami

"Nie przejmowałbym się banem a tym bardziej olałbym myślenie nad odbanowaniem. Nawet jak ci coś przywróci ten adres to będzie na cenzurowanym. Więc lepiej skup się i postaw 300 nowych bo więcej czasuj stracisz na myśleniu czy da się odbanowac. Kiedyś sam się zastanawiałem, dzisiaj wole postawić 3 kolejne."

ODP:

Cholera za duzo pracy w to wlozylem :( i co pozniej tez mnie zbanuja?:( A przeciez cholera nie zrobilem nic zlego. Jak pisalem wczesniej. jajeczko to przy tym pilka lekarska - tak to piescilem i dbalem o najmniejszy szczegol by sie niemoznabylo do niczego przyczepic :(

No nie moge sobie od tak odpuscic :(

Odnośnik do komentarza
Udostępnij na innych stronach

Pomyśl ile ludzi zadeklaruje chęć udziału w takiej akcji
Odpowiedź jest prosta - właściciele promowanej wyszukiwarki.
Tylko teoretycznie i technicznie. W praktyce - bez szans.
Oczywiście, chyba nie tylko ja odczytałem "mogłoby" jako teorię?

Nie znam się na pozycjonowaniu, ja tu tylko zużywam transfer i miejsce w sql.

Roman Kluska ujawnia: nadchodzi INFLACYJNY ARMAGEDON!

 

Odnośnik do komentarza
Udostępnij na innych stronach

Mam nawet wszystko co byloby potrzebne do stworzenia takiej wyszukiwarki, spajdery, archwizzatory itp wszystko wlasnej robotki :D

Takie które byłoby wstanie konkurować z G ? - nie mówie tutaj oczywiście o algorytmie odpowiadającym na zapytanie użytkownika i ustanawiające ranking.

A co do jeszcze, czy moglyby konkurowac z google.

Przeciez spajderki google to nie jest jakis wyrafinowany bocik - to akurat nieodgrywa bardzo istotnej rzeczy i stworzenie czegos takiego to nie byl problem to samo z paserkiem np: na 300 spajderkow 5 k przeprasowanych stron/min to przyzwoity wynik. Teraz tylko mnozys spajderki :)Ale Liczy sie ten algorytm analizujacy - i to jest problem. Inaczej juz dawno bysmy mieli pozadna konkurecje dla G.

Odnośnik do komentarza
Udostępnij na innych stronach

tzn. nie chodziło mi tyle o przechowywanie ilości stron.

bardziej o to że te strony przechowujesz i na danym serwerze musisz w nich wyszukać.

Praktycznie umieścić w sumie można 10 mln względem ilości danych, trudniej później w tym szukać - zauważyłem że google w swoich mini googlach też lokuje po 2-5 mln dokumntów na maszyne. Później jakoś cieżko napisać wydajne rozwiązanie do wyszukiwania w tych zasobach.

Ja nie mowie ze masz projekt zostawić - postaw go na nowej domenie i wtedy sobie walcz. Bo tak to naprawde stracisz mase czasu a google tylko liczy na osoby które czekaja na odbanowanie bo wie że nie stawiaja 100 nastepnych.

.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak 10 lat temu obiektywnie lepszy produkt (google) zastąpił gorszy (AltaVista), tak i teraz musiałoby się to stać, w dodatku musiałby to być jakiś projekt opensourcowy lub coś w tym stylu, ponieważ żaden produkt komercyjny nie ma szans teraz przebić gugla ze względu na próg wejścia liczony w setkach milionów.

Czyli albo czekamy na WikiSearcha lub coś w tym guście, bo co może mieć przynajmniej cień szansy?, albo godzimy sie z dominacją G. bez alternatywy. Onet oraz Netsprint nigdy nie będą alternatywami (brak wsparcia wolontariatu), a skrypty zdolnych młodych ludzi to mogą sobie pokonkurować ze starym SiteServerem M$ a nie z profesjonalnymi enginami wyszukiwawczymi :D

Tutaj będą zaj...iste trzy linki...

Odnośnik do komentarza
Udostępnij na innych stronach

mogłoby

Heh :-) Umówmy się Irek, że uświadomiłeś mi coś, czego jestem w pełni świadomy. Mam za to newsa o tyle ciekawego, że udało mi się pozyskać obietnicę komentarza ze strony człowieka, którego prywatnie uznaję za branżowy autorytet. To siłą rzeczy kilka dni potrwać musi, ale liczę na rzeczową i obiektywną ocenę sytuacji - w jej dosyć szerokim kontekście.

Odnośnik do komentarza
Udostępnij na innych stronach

tzn. nie chodziło mi tyle o przechowywanie ilości stron.

bardziej o to że te strony przechowujesz i na danym serwerze musisz w nich wyszukać.

Praktycznie umieścić w sumie można 10 mln względem ilości danych, trudniej później w tym szukać - zauważyłem że google w swoich mini googlach też lokuje po 2-5 mln dokumntów na maszyne. Później jakoś cieżko napisać wydajne rozwiązanie do wyszukiwania w tych zasobach.

Ja nie mowie ze masz projekt zostawić - postaw go na nowej domenie i wtedy sobie walcz. Bo tak to naprawde stracisz mase czasu a google tylko liczy na osoby które czekaja na odbanowanie bo wie że nie stawiaja 100 nastepnych.

.

Ja to roziwazalem inaczej - "pisalem statyczzne strony":D Tutaj nie ma czego szukac :D Sa na glowny serwerze najbardziej potrzebne informacje ( slowo kluczowe + metatagi ) podzial na domeny w bazie i juz.

W wyszukiwrce takiej jak google to po przeprasowaniu jest dokonywana analiza algorytmem i takie dane trafiaja do dc i wedlog nich jest przeszukiwanie zasob takze nie trzeba ciagle grzebac w olbrzmich plikach i w dodatku razy iles tam milionow.

Odnośnik do komentarza
Udostępnij na innych stronach

Onet oraz Netsprint nigdy nie będą alternatywami (brak wsparcia wolontariatu)
Wolontariusze by się znaleźli, jest ich pełno na tym forum :D

Wystarczy upodobnić algorytm do tego z google i mniej przeszkadzać w pozycjonowaniu. Pozycjonerzy sami zaczną promować wyszukiwarkę w której będzie im się łatwo pozycjonowało (metodami znanymi z google). Zacznie się od tych najmniejszych ale podobno kropla drąży kamień :D

Nie znam się na pozycjonowaniu, ja tu tylko zużywam transfer i miejsce w sql.

Roman Kluska ujawnia: nadchodzi INFLACYJNY ARMAGEDON!

 

Odnośnik do komentarza
Udostępnij na innych stronach

od 2004 czekam na zdjecie banana z jednej domeny :D

Agencja marketingowa Semgence istnieje na rynku od 2018 i odpowiada za prowadzenie działań SEO dla wielu firm małych i dużych. Prowadzimy też kampanie Google Ads - niedawno zostaliśmy sie Partnerem Google spełniając odpowiednie kryteria. Betapoint

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Popuśćmy nieco wodze fantazji :D

Graff zdenerwowany monopolistycznym działaniem G postanowił podzielić udziały w swojej szukarce na 90 osób, profesjonalnie zajmujących się seo/sem/spam, itp. 10% zostało u Niego, po 1% oddał każdej z osób zaangażowanych w projekt. Doskonale skonstruowana umowa kreśli obowiązki i przywileje każdego z udziałowców. Marian S. jest potentatem w dziedzinie spamu i dostał zielone światło na wrzucanie gdzie tylko się da tekstów promujących Hm. Agata W. prowadzi trzeci pod względem wielkości serwis aukcyjny i aktywnie promuje szukarkę na stronach serwisu. Kamil ma setki stron zaplecza i wrzuca tam linki, Michał kilka milionów pkt. w systemach, Agata setki klientów na allegro i namawia ich na seo w Hm, Piotrek legalne bazy setek tysięcy adresów e-mail, Zbychu dojście do iabu/tv/czegoś tam, Andrzej niekonwencjonalne pomysły promocji, itd, itp... Wkrótce ciągłe bombardowanie internautów informacjami o nowej wyszukiwarce sprawia, że połowa polskich internautów ustawia Hm jako stronę startową. W 2009 roku zarząd podejmuje, przełomową jak się okazało, decyzję o rezygnacji z tradycyjnych metod prezentacji tytułów strony na rzecz nr. telefonu, oczywiście adekwatnym do zapytań i powiązania tematycznego. 3 lata i połowa internautów ze względu na szybkość i jakość prezentowanych serpów oraz połączeniu z nowym, bezpłatnym operatorem telefonii internetowej obsługującym wyłącznie komunikator Hm przeszukuje polskie (wkrótce światowe) zasoby netu. W 2011 roku G podejmuje decyzję o kupnie Hm za niebagatelną kwotę 3.278mln dolarów. Do podziału. Całkiem nieźle jak na pomysł rzucony na forum :D

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności