Skocz do zawartości

Robots.txt disallow: czy allow: /


waf

Rekomendowane odpowiedzi

Witam,

mam pytanie. Chce wygenerować plik robots.txt tak aby indeksował wszystkie podstrony serwisu.

W sieci piszą że jest kod do wstawienia

User-agent: *

Disallow:

a w narzędziach google

User-agent: *

Allow: /

który jest prawidłowy?

Odnośnik do komentarza
Udostępnij na innych stronach

w panelu administracyjnym prestashop w zakładce strony nie znaleziono robot chciał odnaleźć plik /robots.txt -- 3049 razy przez cały rok. Kiedyś pod tym adresem był postawiony serwis. Proszę o odpowiedź czy wygenerować ten plik wpisując w nim aby przeglądał cały serwis czy zostawić tak jak jest? Większość podstron serwisu jest już indeksowana i posiada pr 3

Odnośnik do komentarza
Udostępnij na innych stronach

Za każdym razem jak google bot odwiedza stroną najpierw próbuje znaleźć plik robots.txt, a dopiero potem przystępuje do analizowania Twojej strony.

Zawsze możesz wygenerować plik, to wtedy tylko nie będziesz widział liczby 3049, ale nie zmienia to faktu, że i tak ta liczba istnieje dla Google bota. Po prostu tylko Ty jej nie będziesz widział. Chyba, że coś się zmieniło w narzędziach dla webmastera.

O7vVmZ7.gif

Punkty statlink.pl - dobra cena + gratis Skrypt i eBook, Blog SEO/SEM i Tatuaże na Dziarownia.pl (tatuaże)

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności