Skocz do zawartości

Produkt warianty url


genju2

Rekomendowane odpowiedzi

Witam,
Mam produkt strona-główna/kategoria/nazwa-produktu . Produkt może mieć różne warianty np rozmiar. Po wyborze na podstronie ineggo rozmiaru url się zmienia na np.  strona-główna/kategoria/nazwa-produktu#121-rozmiar-040_x_10_mm co z takimi url zrobić? Zablokowałem parametr # w GSC ale nie wiem czy to wystarczy. Jak ktoś by miał czas dzisiaj wyjaśnić to by było miło 

W robotx.txt trzeba też blokować czy samo to wystarczy?

Odnośnik do komentarza
Udostępnij na innych stronach

Zainteresuj się Konsolidacja duplikatów adresów URL .... kanoniczny adres URL

https://support.google.com/webmasters/answer/139066?hl=pl

 

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Blokada w robota.txt jest zalecana. Nie ma sensu żeby robot miał dostęp do bezwartosciowych dla niego stron.

Sprawdź też w jaki sposób masz zakodowane te warianty, bo jeżeli w znaczniku a to warto dodać nofollow, aby robot tam nie przechodził i nie tracił budżetu skanowania.

Odnośnik do komentarza
Udostępnij na innych stronach

1. To, co jest po kotwicy (#) nie jest indeksowalne dla robota tak długo, jak po kotwicy (#) nie występuje wykrzyknik (!)

 

Czyli taka składnia: /strona-główna/kategoria/nazwa-produktu#121-rozmiar-040_x_10_mm

 

nie jest indeksowalna i problem w kontekście SEO nie istnieje

 

ale taka:

 

strona-główna/kategoria/nazwa-produktu#!121-rozmiar-040_x_10_mm

 

już może być indeksowana i (jeśli źle użyta), będzie generowała duplikację.

 

Oczywiście ekspozycja kotwic (#) w URL'ach dla kombinacji produktowych w sklepie to wątpliwa praktyka UX'owa (bo umówmy się, taki URL wygląda, jak krzak), ale tylko tyle.

 

Nie masz się czym martwić, nic nie musisz blokować i wycinać. Słabo wygląda, ale to tyle.

 

Kotwice (#) powstały pierwotnie, jako mechanika do scrollowania stron (np. co typowe - na landing page'ach) do 1. dzielenia się fragmentami treści i/lub 2. scrollowania obrazu w browserze.

 

2. Jeszcze podpowiem, że gdybyś kiedyś chciał stosować canonicala do eliminowania duplikacji wewnętrznej, to pamiętaj tylko, że jest to dyrektywa warunkowa i czasami różne śmieci i tak latają po SERP'ie. Nie mówię,, żeby z canonicala nie korzystać, ale mieć do niego ograniczone zaufanie.

 

A jeszcze a propos pomysłów @Przemoo to wyprostuję, że:

 

Blokada w robota.txt jest zalecana. Nie ma sensu żeby robot miał dostęp do bezwartosciowych dla niego stron.

  • Robots.txt nie rozwiązuje problemów z duplikacją wewnętrzną. Robots.txt ukrywa wybrane zasoby (które określisz w pliku) w wyniku organicznym, ale nadal je crawluje, a co za tym idzie - uwzględnia w budowie autorytetu domeny. Oznacza to, że jak będziesz miał duplikację wewnętrzną, to może nie zobaczysz jej w SERP'ie, ale i tak będzie obciążała Ci domenę.

Z niewiadomego powodu robots.txt jest błędnie wykorzystywany jako substytut noindex'u w meta tagu, a tylko ten drugi doprawdy chroni przez duplikacją.

 

Możesz sobie uzupełniająco poczytać mój art.: Czy robots.txt rozwiązuje problem duplikacji wewnętrznej? tutaj https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/

 

paq studio YouTube

Masz Ducati? Patrz sklep Do Dukata | Agencja SEO Paq Studio

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności