Skocz do zawartości

Czy szybkość ładowania strony ma znaczenie ?


Rekomendowane odpowiedzi

Oczywiście że ma. To tak jak by ktoś miał wątpliwości :)

Ktoś może widział jakieś wyniki badań , ewentualnie wpisy na blogu które by pokazywały ile potencjalny kl;ient naszej strony może czekać/wytrzymać na załadowanie się strony.

Przy okazji czym można by to zmierzyć ? Firebug pokazuje czas ładowania poszczególnych elementów strony ale może ktoś zna coś lepszego.

Odnośnik do komentarza
Udostępnij na innych stronach

mialem kiedys problem na jednej ero stronie, strona byla w tabelce a w tabelce bylo odwolanie do statystyki (tylko na stronie glownej) ktora sie z jakis powodow zepsula, skrypt czekal ok 30sek na zaladowanie po czym do przegladarki wczytywala sie strona, mimo ze przez te 30 sec mimo pobrania (mozna bylo obejzec zrodlo) ladowala sie tylko biala strona, w footerze poza tabela glowna mialem dodany ga

nie mam pojecia ile czasu trwal problem - kilka min czy kilka dni, jednak ga w liczbie odslon podstron nie zanotowal specjalnego spadku - wszystko bylo w granicach normalnych wachan

przy zalozeniu ze problem trwal kilka min to mozna powiedziec ze go nie bylo

jednak przy zalozeniu ze problem trwal kilka dni to by wychodzily ze ludzie szukajacy porno czekaja 30 sekund na zaladowanie strony :)

JA: Miał Pan już nie pisać - tak trudno to zrozumieć, nie życzę sobie już od Pana maili

KLIENT: to po co Pan odpisuje? lubi Pan miec pewnie ostatnie zdanie ..ja również

Odnośnik do komentarza
Udostępnij na innych stronach

  • 4 tygodnie później...

ja uzywam do tego narzędzia z https://www.widexl.com/seo/metatag-analyzer.html

do przebadania meta tagów.

a ma to znaczenie. ile czasu wytrwasz przy stronie która sie długo ładuje?

https://www.mprojekty.com - Profesjonalne Strony Internetowe

pasek.jpg

- Zobacz przestawienie oferty na youtube
Odnośnik do komentarza
Udostępnij na innych stronach

Nie był bym tego taki pewien, ale tyczy się to raczej stron o długim "ładowaniu".

Jak wiemy robota interesuje tylko sam kod, a nie grafiki wchodzące w skład strony, ale ten kod musi zostać przez niego pobrany w całości. Osobiście uważam, że roboty czyli klienci mają z określony czas od żądania dokumentu na jego pobranie i jeśli serwer w tym czasie nie odpowie, lub nie dostarczy całego dokumentu pobieranie jest przerywane. Takie ograniczenia wynikają z ilości stron jakie roboty muszą "odwiedzić by być na bieżąco" stąd właśnie powyższy wniosek.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

hm, moim zdaniem nie ma takiego limitu, robot ma wejść i zaciągnąć stronę, jeżeli robot tego nie zrobi to user też tego nie zrobi.
Napisałeś kiedyś jakiś program który opiera się na efektywnych żądaniach HTTP ? wątpię, bo gdyby tak było zrozumiał byś o co mi chodzi :)

Jeśli pojedyncze żądanie HTTP trwało by tylko 1 sekundę klient bota w ciągu godziny był by w stanie "pobrać" tylko 3600 stron, a co z pozostałymi z niezliczonych pokładów internetu np:

Wyniki 1 - 10 spośród około 19,400,000 dla zapytania pozycjonowanie.

Wyniki 1 - 10 spośród około 721,000,000 dla zapytania sex.

itd...

Rozumiesz teraz na czym polega istota tego zagadnienia...

Więc jeśli boot nie pobierze całości w określonym dla niego interwale czasowym inny bot nie dokona jej analizy co za tym idzie będzie miało to wpływ na SERP'y.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Fakt, szybkość ładowania się strony jest bardzo ważna. Ostatnio przeniosłem jedną stronę z webd (średni czas pobierania wg google był ok. 5-6 sek) na prohost (ok 1 sek) i efekty widać - wcześniej miałem średnio jeden nowy komentarz na miesiąc, teraz na dzień :)

Ostatnio Google stworzyło też stronę (na razie tylko po angielsku) poświęconą optymalizacji szybkości: https://code.google.com/speed/

Polecam moje pluginy do WordPress'a: WyPiekacz, Meta SEO Pack, User Locker, Google Integration Toolkit i wiele innych :)

Poradnik Webmastera ‰ Ostatnio na blogu:

PoradnikWebmastera-Blog.1.gif

Odnośnik do komentarza
Udostępnij na innych stronach

Napisałeś kiedyś jakiś program który opiera się na efektywnych żądaniach HTTP ? wątpię, bo gdyby tak było zrozumiał byś o co mi chodzi

Jeśli pojedyncze żądanie HTTP trwało by tylko 1 sekundę klient bota w ciągu godziny był by w stanie "pobrać" tylko 3600 stron, a co z pozostałymi z niezliczonych pokładów internetu

Hmm chyba przekombinowales ;) nie ma wiekszego znaczenia czy puszcza 100botow ktore beda czytaly po 10s kazda strone czy puszcza 1000botow ktore beda czytaly po 1s :) nie maja przeciez limitu botow moga odpalac tysiace watkow na kazdej maszynie kontrolujac tylko ile uciagnie maszynka czyli jak strony sie wolno laduja to odpala wiecej watkow jak szybko to mniej.

Pozdrawiam, breja

wl4u3.gif

Odnośnik do komentarza
Udostępnij na innych stronach

nie maja przeciez limitu botow moga odpalac tysiace watkow na kazdej maszynie kontrolujac
:brawa:

Tak samo jak nie ma limitu baz na hostingach, limitu transferu i wielu innych nie istniejących w teorii lecz występujących w praktyce limitów :D

Przy tak ogromnej i stale rosnącej ilości stron do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru.

Zresztą z punktu widzenia docelowego usera czas w jakim otrzyma pełny dokument jest też ważny. Wiec dlaczego wyszukiwarki nie mają za to przydzielać dodatkowej punktacji. Jeśli na szali znajdą się strony o porównywalnym "oczyma bootów" poziomie wartości w SERPA'ch wyżej może pojawić się serwis którego pobranie kodu HTML o wielkości 20 KB zajmuje 500 ms, a nie 10 sekund.

--- co wiecej----

Czas ładowania strony na 100% ma wpływ na komfort usera czego żywym przykładem był serwis NK w czasach łańcuchowo rosnącej popularności ;)

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Hmm chyba przekombinowales wink.gif nie ma wiekszego znaczenia czy puszcza 100botow ktore beda czytaly po 10s kazda strone czy puszcza 1000botow ktore beda czytaly po 1s smile.gif

Idąc tym tokiem rozumowania im wolniej chodzi mi strona, tym więcej botów mnie odwiedza, co jest nie logiczne i mija się z praktyką. Wychodziłoby na to, że np. G. zamiast indeksować dobre, wczytujące się szybko strony poświęca większość zasobów na wczytujące się powoli lub chodzące na za słabych serwerach serwisy..

 ...

Odnośnik do komentarza
Udostępnij na innych stronach

Tak samo jak nie ma limitu baz na hostingach, limitu transferu i wielu innych nie istniejących w teorii lecz występujących w praktyce limitów

google ma tysiace botow a nie jednego dlatego obstawiam ze nie ma znaczenia dla jednej maszyny czy wysylaja 100botowe ktore ciagna XY Mb/s czy 1000 ktore tez ciagna XY Mb/s liczba botow w tym wypadku nie jest limitem a szybkosc zapisu do bazy! Gdyby mieli jedna maszyne to bym sie zgodzil ze az tak by sie przejmowali predkoscia pobierania.

Przy tak ogromnej i stale rosnącej ilości stron do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru.

Przy tak ogromnej i stale rosnącej ilości serwerów do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru. Myle sie?

Zresztą z punktu widzenia docelowego usera czas w jakim otrzyma pełny dokument jest też ważny.

Zgadzam sie nawet byly testy ze jezeli w ciagu 5s strona sie nei zaladuje to wiekszosc odwiedzajacych przchodzi na inna strone.

Wiec dlaczego wyszukiwarki nie mają za to przydzielać dodatkowej punktacji.

Pewnie i przyznaja tylko ja bym obstawial ze ujemne w przypadku naprawde zle dzialajacych stron ;)

Idąc tym tokiem rozumowania im wolniej chodzi mi strona, tym więcej botów mnie odwiedza, co jest nie logiczne i mija się z praktyką.

Jeszcze raz przeczytaj co pisalem :) zakladamy ze google chce zassac twoja strone w tepie 1000podstron na godzine wysyla 10 botow ale widzi ze tepo jest zbyt male i dosyla kolejnych. To nie jest tak ze czym wiecej botow tym lepiej bo one i tak tyle samo roboty odwalaja :)

Wychodziłoby na to, że np. G. zamiast indeksować dobre, wczytujące się szybko strony poświęca większość zasobów na wczytujące się powoli lub chodzące na za słabych serwerach serwisy..

Nie wiesz ile maja zasobow wiec twoje pretesje sa wyssane z palca :) Przeciez slabych/nowych/duzych stron nie indexuja w calosci wiec maja mechanizm optymalizujacy :)

Pozdrawiam, breja

wl4u3.gif

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności