Skocz do zawartości

Blokady w robots.txt


Lexy

Rekomendowane odpowiedzi

Gugiel chodzi mi po tokenach, których lokalizacja to domena.pl/?secCode&t=123 W webmaster tools wśród podstron z różnymi problemami pojawiają się m.in. tego typu podstrony. W robots.txt dodana została reguła Disallow: /*?secCode* Pytanie tylko - czy inne wyszukiwarki akceptują blokady w innej formie niż blokada konkretnego katalogu, pliku bądź też rozszerzenia?

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności