Skocz do zawartości

Google ma problemy ze sprzetem


Czar

Rekomendowane odpowiedzi

A po co im obudowy ? chyba zeby zwiekszyc temperature co bedzie oznaczalo wieksza szanse uszkodzen i wiecej kasy na klime ;)

Chodziło mi o to, że taka firma bawi się w komputerki PC:)

Co do prawdziwych serwerow hmm po to sie wlasnie stawia kalstry ze jak maszynka jakas padnie to sie ja wywala do smieci i stawia nowa na jej miejsce bez strat danych i uszczerbku dla calego systemu wiec nie musza sie martwic i placic znacznie wiecej za maszynki firmowe ktore i moze sa mniej awaryjne ale w tym przypadku (klastry) nie ma to takiego znaczeja jak w serwerowni hostingowej gdzie stoja dedyki.

Klastry można robić również z maszyn wieloprocesorowych, co wyszłoby im pewnie lepiej w ostateczności.

Tutaj widać takie "pecetowe" podejście: mam komputer w domu, to się znam - postawię 1000 takich i będzie fajnie.

Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl.

obrazek.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Sprawa jest naprawde powazna - z 80 k podstron zrobilo mi sie 1k i tak na kilku stronach... Jak Google tego nie naprawi to pojdzie na dno - tacy byli wielcy i sie chyba przeliczyli z mozliwosciami .... :/

Chyba ze teraz specjalnie wyindeksowauja wszystko zeby zaindeksowac z powrotem na jakims poprawionym i wydajniejszym algorytmie...

Wyglada na to ze Google goes down - mam nadzieje ze teraz pracuja 24h na dobe zeby znalesc rozwiazanie. Spojrzcie na to z tej strony:

kazdemu spadly zarobki w AdSense - automatycznie Google spadly zarobki, spadaja notowania na gieldzie bo straty nie sa takie jak u nas - kilka dolcow w dol - tylko kilka milionow dolarow w dol codziennie dla tego giganta.

Jak teraz patrze msn i yahoo nigdy nie mialy w indeksie tylu podstron moich serwisow co Google i to byla ich najwieksza przewaga. Mysle ze system ktory wyindeksowuje strony wywala te ktore sa najbardziej do siebie podobne i zostawia tylko te najbardziej unikalne.

teraz patrzcie - wszystkie systemy wymiany linkow zawodza bo skoro nie ma podstron nie ma juz punktow ale co najwazniejsze nie ma juz pdstron na ktorych wyswietlaly sie nasze linki.

przylaczcie sie do wspolnej modlitwy zeby sie z tym uporali bo bedzie slabo :/

Dla tych co lubią na biało i dla tych co na czarno:
logo_ap.jpg godmodelogo.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

EDDY twój znajomy chyba sprzedaje Serwerki stąd jego Gadka. Na pewno przeszkodą w rozwoju nie jest fakt, że robione są na zwykłych prockach PC. W ciagu ostatnich 10 lat technologia zwykłych PCtów poszła tak do przodu, że niestety pod kątem wydajności rzowiażanie stricte sererowy pozostały w tyle. Jescze w Latach 90 pracowałm w firmie która sprzedawałay SUNy i to były Serery przeznoczone do Sieci - od początku do końca. Po dziś zresztą dzień prdoukują świetne serwery w tym dedykowane np.: do połaczeń szyfrowanych - natamiast standardowe linie ich produktów lecą już na opteronach.

ZUZYCIE PRĄDU - nie może być problemem - albo mam kłopoty z matematyką - bowiem wychodzi mi, że koszty sprzętowe (zakładając 5letni cykl pracy sprzętu) są około 3-4 krotnie wyższe od zużycia energii. Co oznacza, że zuzycie prądu jest duże i istotne w kosztach, ale nie kluczowe.

Rozwiązanie sprzetowa Google uważam za całkiem sprytne. Gorzej radza sobie z algorytmem na powiekszającej się ciągle bazie danych. Moim zdaniem kwestia leży w Algo i podejsciu - po porstu musi być "mała rewolucja".

Jakąś tam niedokładną analaogią mogą być portale oparte na rozbudowanym Mambo - przy 2-3 000 userów zaczynają zwalniać sprzęt. Przy 6 000 trzbea kupować dedyka a powyżej 10 000 wszystko się wali (mniej więcej oczywiście) Tymczasem 10 000 userów można obłuzyć dobrym kontem hostingowym - po porstu innych algorytm.

Odnośnik do komentarza
Udostępnij na innych stronach

Spojrzcie na to z tej strony:

kazdemu spadly zarobki w AdSense - automatycznie Google spadly zarobki, spadaja notowania na gieldzie bo straty nie sa takie jak u nas - kilka dolcow w dol - tylko kilka milionow dolarow w dol codziennie dla tego giganta.

Jakby tak było już dawno by to naprawili, niestety, zeby im znacznie dochody zmalały ludzie musieli by rezygnować z wyszukiwarki. Teraz tylko wyleciałeś z indeksu i wiele innych serwisów, ale ktoś kto był daleko za tobą w wynikach awansował i ona zarabia teraz dla google, nie ty - taka różnica.

W dalszym ciągu ludziki wchodzą na google.pl, robią szukaj i wyskakuje im masę wyników i pewno nikt nie zauważył, że coś się zmieniło.

Odnośnik do komentarza
Udostępnij na innych stronach

Sprawa jest naprawde powazna - z 80 k podstron zrobilo mi sie 1k i tak na kilku stronach... Jak Google tego nie naprawi to pojdzie na dno - tacy byli wielcy i sie chyba przeliczyli z mozliwosciami .... :/

Spokojnie, są szanse że wypadnie jeszcze więcej. Mnie prawie z 100.000 indexów, zostało 212, słownie : dwieście dwanaście.

Odnośnik do komentarza
Udostępnij na innych stronach

Konrad nie zgodze sie - nie zgodze sie dlatego ze dochody sa zalezne glownie od iosci podstron u wydawcow. Czym wiecej podstron tym wiekszy traffic. Generalnie strony z mala iloscia podstron (z faktyczna mala iloscia ) nie sa robione pod Adsense i nie beda generowaly duzej kasy.

Spadek ich dochodow musial nastapic.

Dla tych co lubią na biało i dla tych co na czarno:
logo_ap.jpg godmodelogo.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Piszecie o czymś co przeżywałem na przełomie luty/marzec spadek indeksów z 56 tys do w ekstremalnym momencie do ok 200. Robot gogle odwiedzał tylko pierwsza stronę i za chiny nie chciał sie przełamać i odwiedzić podstrony. To tak trwało z miesiąc po tym okresie ilość podstron systematycznie rośnie i mam nadzieje że to juz koniec całego zamieszania tylko BL mam małe ale no cóż jakieś straty widocznie muszą być.

Odnośnik do komentarza
Udostępnij na innych stronach

Konrad nie zgodze sie - nie zgodze sie dlatego ze dochody sa zalezne glownie od iosci podstron u wydawcow. Czym wiecej podstron tym wiekszy traffic. Generalnie strony z mala iloscia podstron (z faktyczna mala iloscia ) nie sa robione pod Adsense i nie beda generowaly duzej kasy.

Spadek ich dochodow musial nastapic.

Mi się wydaje, że ty patrzysz od strony serwisu .... im więcej stron tym masz więcej wejść i automatycznie dochody. Ale my mówimy od strony googla, ty wypadasz ze swoim serwisem, może wiele jeszcze innych serwisów ale twoje miejsce zajmują inne osoby do tej pory zajmujące dalszą pozycję w wyszukiwarce. Korporacja Google zabrabia mniej więcej tyle samo, twój serwis przestał dla nich zarabiać .. ktoś inny poprawił pozycję i zarabia dla nich więcej. Poza tym jeśli to zamieszanie wpłynęło niekorzystnie na trafność wyszukiwań, internauta możę dłużej błądzić po sieci i klikać na przypadkowe reklamy. ok zostawmy to mam inne pytanko

Czy jak ktoś sprawdzał site:domen.pl i zauważył że mu wszystko wypadło, sprawdził też np. wpisując tylko część adresu albo samo domena.pl czy tez jest mniej wyników?

Odnośnik do komentarza
Udostępnij na innych stronach

Czy jak ktoś sprawdzał site:domen.pl i zauważył że mu wszystko wypadło, sprawdził też np. wpisując tylko część adresu albo samo domena.pl czy tez jest mniej wyników?

Ja tak mam, że dla całej głównej site:domena.com pokazuje np. 600, ale juz dla subdomen pokazuje też po 600, co ciekawe, jak do adresu głównej dodam podkatalog domena.com/dir1/ to pokazuje powiedzmy 300, dla innego podkatalogu 400... w sumie uzbiera sie tego kilka tysięcy.

I wiem co jest - to wszystko sa problemy z indeksem pomocniczym (suplemental). Google albo pokazuje strony z głownego indeksu albo z pomocnicznego - nie zauważyłem, aby oba indeksy mieszało w wynikach.

Do tego w pomocniczym indeksie kopie stron są baaaardzo stare (najwczesniejsze to lato 2005) o ile w ogóle są.

Mi to cały czas wygląda na zabawę z indeksami i próby stworzenia nowych algorytmów indeksacji stron, nowej strategii dla robotów i filtrów. Ale cos im nie wychodzi jak chcą i po kilku dniach/tygodniach odtwarzają stany indeksów z jakiegoś backupu i zaczynaja zabawę na nowo. Dlatego raz mamy kilkaset stron w indeksie, by potem nagle skoczyło do kilkudziesieciu tysięcy i znowu spadało i znowu powracało i tak w koło macieju... Prawdziwy Google Dance Macabre.

Odnośnik do komentarza
Udostępnij na innych stronach

Juz sie chbya skonczyly problemy google ze sprzetem.. bo indeksuje i to jak glupie.

na jednej z subdomen do tej pory 23 tys botow google, na drugiej troche mniej - 8 tys.

poza tym index site skoczyl mi na tej pierwsej domenei

a dokladnie to mowie o tym:

https://www.google.pl/search?hl=pl&q=site%3...aj+w+Google&lr=

i to dzis i wczoraj tak indeksuje lazi po stronie jakby sie zgubilo. Ciekaw jestem jaki i kiedy bedzie efekt - efekt tych dzisiejszy wedrwoek, bo ten index to wczesiej zdobyty - w ciagu ostatniech tygodnia troche transferu pochlonelo.

Odnośnik do komentarza
Udostępnij na innych stronach

Humm, az tak wielkie roznice w indeksie?

piszac poprzedniego posta mialem dla site ponad 880 tys podstron - teraz zaledwie 300 ..;/

Dla kolejnej strony z prawie 100tys indexow zostalo nieco ponad 200 :/ zobaczymy co teraz sie bedzie dzialo, o ile wogole...sie dzwignie spowrotem.

Odnośnik do komentarza
Udostępnij na innych stronach

https://labs.google.com/papers/gfs.html

Polecam lekture. Bardzo duzo domyslow moze wyjasnic.

To co teraz Google z serwerami przypomina lampy w dawnych komputerach. Pecki nie maja obudowy bo latwiej sprzet wymienic.

Kazdy plik ma trzy kopie. Problem mogl sie pojawic gdy ilosc danych zwiekszyla sie to zapotrzebowanie na sprzet wzrasta wykladniczo.

Ale problemem moze okazac sie przepustowosc sieci w tym przypadku.

Nie mozna tego modelu w nieskonczonosc budowac.

Musza teraz pomyslec nad nowym rozwiazaniem przetrzymywania danych. Przeciez to ich wyzwanie i najwiekszy kapital. Co bedzie za 40 lat ?? :blush:

Te DC beda wygladaly smiesznie :yahoo:

Check email deliverability tool Maildog

 

Odnośnik do komentarza
Udostępnij na innych stronach

EDDY twój znajomy chyba sprzedaje Serwerki stąd jego Gadka. Na pewno przeszkodą w rozwoju nie jest fakt, że robione są na zwykłych prockach PC. W ciagu ostatnich 10 lat technologia zwykłych PCtów poszła tak do przodu, że niestety pod kątem wydajności rzowiażanie stricte sererowy pozostały w tyle.

Owszem, pracuje w firmie robiącej 32-procesorowe monstra za milion USD i jakoś bardziej ufam jego opinii, niż to, że wielopoziomowe budynki z CPU od PC są lepsze...

ZUZYCIE PRĄDU - nie może być problemem - albo mam kłopoty z matematyką - bowiem wychodzi mi, że koszty sprzętowe (zakładając 5letni cykl pracy sprzętu) są około 3-4 krotnie wyższe od zużycia energii. Co oznacza, że zuzycie prądu jest duże i istotne w kosztach, ale nie kluczowe.

Należy pamiętać, że prąd z powietrza się nie bierze i samo Google nie może ciągnąć aż tyle energii. Prawdę mówiąc nie wiemy ile tysięcy procesorów mają, ale kiedyś jeden z dyrektorów sam mówił, że mają wysokie rachunki za prąd i są pewne granice opłacalności. Możliwe, że już do niej dotarli:)

Niedługo zaczną żałować, że jednak nie zrobili DC na prawdziwych serwerach...

Jakąś tam niedokładną analaogią mogą być portale oparte na rozbudowanym Mambo - przy 2-3 000 userów zaczynają zwalniać sprzęt. Przy 6 000 trzbea kupować dedyka a powyżej 10 000 wszystko się wali (mniej więcej oczywiście) Tymczasem 10 000 userów można obłuzyć dobrym kontem hostingowym - po porstu innych algorytm.

Kurcze, nie strasz:) Joomla ma mi obsłużyć kilkadziesiąt tys. osób dziennie. Znasz jakieś dodatki buforujące zapytania? :)

Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl.

obrazek.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności