Skocz do zawartości

Czy szybkość ładowania strony ma znaczenie ?


Rekomendowane odpowiedzi

@Breja, widzę, że nadal nie zrozumiałeś o co mi chodzi. Więc nie chodzi ile transferu, ale czas odpowiedzi na żądanie HTTP który nie może być dowolnie długi. Już przy 1 sekundzie 1 bot pobrał by tylko 3600, a jedna sekunda to w informatyce bardzooo długi czas. Nawet tak duże firmy jak google nie biorą kolejnych serwerów z powierza do tego dochodzi jeszcze podłączenie ich do infrastruktury. Poza tym nie widzisz technicznych aspektów:

google ma tysiace botow a nie jednego dlatego obstawiam ze nie ma znaczenia dla jednej maszyny czy wysylaja 100botowe ktore ciagna XY Mb/s czy 1000 ktore tez ciagna XY Mb/s liczba botow w tym wypadku nie jest limitem"
Ile może wątków naraz pracować? im jest wątków tym więcej jest realizowanych jednocześnie żądań HTTP co za tym idzie wydłuża się czas na zakończenie pojedynczego żądania. Realny przykład - ściąganie kilku filmów naraz :)

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Mion, nikomu nie musisz nic udowadniać a do swoich teorii napisz sobie program i sobie na niego patrz, włączaj i wyłączaj, bo czasami się zastanawiam czy wiesz, że już się Ciebie nie da czytać...

takie malutkie dziecko zawsze na nie.

Odnośnik do komentarza
Udostępnij na innych stronach

Kto ci każe czytać to co piszę ? Jest taka opcja ignoruj z której możesz zawsze skorzystać.

Moje teorie opieram na programistycznym doświadczeniu, więc jeśli w tej kwestii masz inne doświadczenie może podzielisz się nim z nami...

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

@Mion ty mnie tez nie rozumiesz ;D

ale czas odpowiedzi na żądanie HTTP który nie może być dowolnie długi

Dowolnie nie bo pewnie watki sa ubijane po X sekunach gdzie X pewnie jest spora liczba i 99.999 serwisow sie w nim wyrabia ;)

Już przy 1 sekundzie 1 bot pobrał by tylko 3600, a jedna sekunda to w informatyce bardzooo długi czas.

Ja nie widze problemu dedyk widzi ze ma wolne zasoby (lacze/ram/cpu) i odpala wiecej watkow(botow) a myslac twoim tokiem to jedna strona mogla by dlugimi czasami odpowiedzi zajac calego dedyka i robic niepotrzebne przestoje. A przeciez taki crawler jest wielowatkowy. Gdyby nie byl faktycznie byly by takie problemy jak piszesz.

Ile może wątków naraz pracować?

Mysle ze na tyle duzo aby zapchac lacze zanim zapcha sie ram/cpu czyli ograniczeniem bedzie pasmo a nie watki wiszace dlugo na jakiejs powolnej stronie :)

im jest wątków tym więcej jest realizowanych jednocześnie żądań HTTP co za tym idzie wydłuża się czas na zakończenie pojedynczego żądania.

nie prawda jezeli nie bedzie zapchane ani cpu ani lacze to nie ma znaczenia ile jest watkow

Realny przykład - ściąganie kilku filmów naraz

jak masz 1Gb to raczej nie ma problemu zeby sciagac kilka filmow na raz bo nie znajdziesz zrodla 1 filmu ktory ma taki upload by zapelnic cale twoje pasmo :) tak samo jest u nich dobieraja odpowiednia liczbe watkow by maszyna dzialala na maxa ba pewnie przenosza zadania miedzy maszynami by rownomiernie porozkladac "wolne" strony miedzy wszystkimi serwerami.

Ot takie nasze gdybania a niektorym juz puszczaja nerwy ;D

Ja dodam jeszcze inne aspekty ;)

1. Teoria ze im wolniej strona dziala tym mozna podejrzewac ze strona jest bardziej oblegana (digg efekt, bandwidth limit) czyli powinna zostac premiowana? :D

2. Wykresiki w panelu G dla webmasterow - po zmianie maszyny na szybsza nie widac zwiekszenia szybkosci pobierania wrecz bym powiedzial ze przeciwnie przynajmniej ja mialem takie doswiadczenia. Widac tam tez ze duze czasy (5s) nie przeszkadzaja w indexowaniu 5k podstron dziennie.

Pozdrawiam, breja

wl4u3.gif

Odnośnik do komentarza
Udostępnij na innych stronach

Nie znam oprogramowania robotów google,

nie mam informacji ile wątków pobierających może być jednocześnie uruchomionych na przedmiotowych maszynach,

nie mam też informacji jakie pasmo przypada na pojedynczą maszynę zajmującą się tym o czym my mówimy więc jest to faktycznie gdybanie, ale na podstawie pewnych przemyśleń.

Piszesz, że Masz 5K przy 5s. Ja mam 2.4K przy średnim czasie 291 ms najdłuższy 560 ms więc dlatego tyle Masz, bo żądań HTTP jest realizowanych szybko i dlatego roboty pracując w niezliczonych wątkach czasowo dają radę. I tutaj prawie dochodzimy do wspólnego mianownika....

Oki, z mojej strony to chyba koniec gdybania :D

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Tak na marginesie, skoro szybkość ładowania strony nie ma znaczenia dlaczego google poświęca temu cały dział:

Page Speed

:unsure:

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności