Skocz do zawartości

html vs. xhtml


Dael...

Rekomendowane odpowiedzi

Czy ma jakies znaczenie z czego sie korzysta? Oczywiscie, czy ma to znaczenie dla pozycji w wyszukiwarkach? Mam nadzieje, ze nie po to spedzilem dwie noce poprawiajac 2800+ bledow w kodzie, aby strona miala spasc w rankingach... aha, teraz jest w pelni zgodna z xhtml 1.0...

https://validator.w3.org/check?uri=http%3A%...utomatically%29

Tylko, czy cos to zmienia??

Morrowind.pl - Polski serwis The Elder Scrolls V: Skyrim...

Posiadamy także informacje na temat Oblivion oraz Morrowind

Odnośnik do komentarza
Udostępnij na innych stronach

raczej nie, może w jakimś minimalnym stopniu stosunek objętości kodu do tekstu. ja parę razy zmieniałem budowę strony, nawet dosyć znacznie i nigdy nie odbiło się to na pozycji.

Odnośnik do komentarza
Udostępnij na innych stronach

Tylko, czy cos to zmienia??

Kiedyś znajomy mi mówił, że chciał aby jego stronke zaindeksowała jakaś wyszukiwarka (teraz już nie pamiętam co to było) i dostał informacje, że nie może jej dodać ponieważ ma błędy w kodzie.

Tak z drugiej strony patrząc napewno jakieś znaczenie ma na pozycje ale ciężko powiedzieć jakie.

Z trzeciej strony ;) lepiej mieć zgodną z jakimś standardem bo nigdy nie wiadomo co przykładowo chłopaki od G. wymyślą :?

Odnośnik do komentarza
Udostępnij na innych stronach

Ja myślę, że gdyby strony zgodne ze standardami były "mocniejsze" to internet by się poprawił.. ja byłbym za.

Niech nawet przemnożą ilość pkt przez 1.3 dla strony, która ma budowę zgodną ze standardem.

Odnośnik do komentarza
Udostępnij na innych stronach

nie ma co się martwić ;)

google nie jest zgodne z żadnym standardem i póki tak jest nie ma co się martwić o to. zresztą po co im kolejne tysiące serwerów, żeby walidować strony. to by była paranoja.

Odnośnik do komentarza
Udostępnij na innych stronach

bartek-b to nie do końca jest tak, że jak Google jest niezgodny (niesprawdzałem) z żadnym standardem to nie zwraca uwagi na zgodność.

Istnieje też coś takiego jak specjalne wprowadzanie kogoś w błąd 8)

Stare powiedzenie: Jak nie wiadomo o co chodzi to chodzi o ... wiadomo o co ;)

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Tylko, czy cos to zmienia??
Czy jest VALID czy nie, to najwyraźniej (niestety...) nie wpływa na pozycję. Ale skoro już Ci się chciało, to zadbaj o cały serwis ;)
google nie jest zgodne z żadnym standardem
Kluczowe, że tysiące zaindeksowanych stron pojawiających się na wysokich pozycjach na popularne hasła też nie ma nic wspólnego ze standardami.

Validatorem warto przejechać stronę żeby ustalić czy nie masz poważnych błędów - podomykane wszystkie tagi (przy odpowiednio dużej kaszanie robot może zgłupieć), dobrze zrobione linki (żeby robot przeczytał prawidłowo wszystkie znaczki i nie zkaszanił jak tu) - jeżeli błędów jest mało, to łatwiej nad tym zapanować.

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Wiecie, co a moim zdaniem coś w tym musi być. Bo miałem stronę 3mce na HTML'u 4.01 z błędami ale za to w kodzie dodałem meta robots ale to mi nic nie dało w zaindeksowaniu podstron. Zmieniłem na XHTML 1.0 Tr. i strona jest oczywiście VALID co za tym idzie musiałem z kodu wywalić meta robots, a tu już po tygodniu od zmiany standardu mam zaindeksowane podstrony!! Gdzie tu logika?? Więc może G zwraca uwagę??

Serdecznie Pozdrawiam,

Twórca Witryn, https://www.ableorg.com , https://www.erodzina.com

Odnośnik do komentarza
Udostępnij na innych stronach

  • 3 miesiące temu...
Wiecie, co a moim zdaniem coś w tym musi być. Bo miałem stronę 3mce na HTML'u 4.01 z błędami ale za to w kodzie dodałem meta robots ale to mi nic nie dało w zaindeksowaniu podstron. Zmieniłem na XHTML 1.0 Tr. i strona jest oczywiście VALID co za tym idzie musiałem z kodu wywalić meta robots, a tu już po tygodniu od zmiany standardu mam zaindeksowane podstrony!! Gdzie tu logika?? Więc może G zwraca uwagę??

Dlaczego musiałeś wywalić w xhtml 1.0 TR znacznik robots? Pisałem kiedyś w xhtml 1.0 TR, teraz piszę w xhtml 1.1 i wszystko gra. Zerknij w metatagi na https://www.opengeo .pl i na dole masz link do walidacji strony. Wszystko gra.

Największy i najlepszy serwis Apple w Polsce, a do tego również Serwis iPhone

Odnośnik do komentarza
Udostępnij na innych stronach

  • 4 miesiące temu...

Też zawsze myślałem, że budowa strony i czystość kodu ma ogromne znaczenie dla pozycjonowania.

Ale najlepszym dowodem na to, że jest dokładnie odwrotnie jest serwis filmowy stopklatka.pl :D :D

W tej chwili sama strona główna ma 450 błędów a mimo to góruje w Google i to na większości hasłach związanych z tematyką filmową, a nie zapominajmy o tytułach filmów.

Filmweb.pl to samo - 181 błędów w kodzie i pierwsze miejsca w wyszukiwarkach.

I gdzie TUTAJ jest logika?

Odnośnik do komentarza
Udostępnij na innych stronach

Sama poprawność kodu XHTML nie ma dużego znaczenia - aczkolwiek jak tu już wspomniano przy zbyt duzej ilosci błędów robot ma prawo zgłupieć pomimo, że explorer czy FF się "wyrabia".

Inna sprawa, że XHTML od HTML dzieli dużo lat różnicy i pewien sposób myśłenia. Strony Pisane w XHTML zazwyczaj mają lepsze wyniki od stron tak samo zlinkowanych - napisanych w tradycyjny sposób. Ale nie wynika to z tego, że google sprawdza poprawność kodu, tylko z zalet samego XHTML.

Przede wszystim stosunek kodu do treści jest znacznie korzystniejszy przy XHMTL. Po za tym trzymanie się zasad "starannego" pisania niejako automatycznie optymalizuje stronę dla wyszukiwarek (znacznki <h>, paragrafy, Divy z treścią na poczatku kodu itp).

Po za tym trzymanie się na siłę staroci doprawadzi do tego, że w końcu powlutku strocie bedą coraz gorzej widziane. Czemu tak sądzę? Coraz blizej jesteśmy wyszukiwarek badających głębiej treść i układ dokumentu. Znacznie łatwiej jest określić zależności czy powiązania w tekście ujętym w paragrafy i DIVy niż np.: w tabelkowym szaleństwie.

XHTML jest jakby pozdbiorem XML - Czyli prawidłowo napisana strona w XHMTL jest równocześnie dokumentem XML'a!. XML natomiast to opis znacznikami, umożliwiający wygodniejsze, szybsze przygotowywanie wszelkich dokumentów tekstowo-graficznych. Które potem można przenosić i adaptować do różnych form przekazu elektronicznego.

Jest już dzisiaj możliwe napisanie wyszukiwarki, która po zapoznaniu się z ogólna strukturą układem serwisu bedzie w stanie wyszkiwać treści w sposób okreslający jej lokalizację (np.: menu, lista, gówny akapit, tytuł) ustawiać herarhię paragrafów i wiele innych códów o których nam się nie śniło. Warunek dobrze napisany XHTML :-).

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności