Skocz do zawartości

Blokowanie adresów URL przez robots.txt


lublinforum

Rekomendowane odpowiedzi

Plik robots.txt mam pusty?

To miało być pytanie, czy stwierdzenie? Przecież my nie wiemy co masz w robots

Na jakiej podstawie stwierdzasz, że blokuje? Jak jest pusty to nie blokuje...

Możesz go całkiem wywalić, możesz też podać w nim ścieżkę do sitemapy

W narzędziach webmasterskich Google możesz sprawdzać czy blokuje czy nie.

ZGORA - portal z poradnikami między innymi o webmasterstwie - szukasz porady - zajrzyj

Kobietyn - portal dla kobiet.

Webbest.eu

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak pisali przedmocy, musiales miec tam kiedys Disallow: nazwa_katalogu_lub_pliku a narzędzia google dla webmasterów aktualizuja się dosc wolno...

utwórz sobie plik robots.txt i daj w nim

User-agent: *

Allow: /

no i czekaj cierpliwie

zabawa to podstawa ;)

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności