Skocz do zawartości

Problem z plikiem robots.txt


orideith

Rekomendowane odpowiedzi

Witam Was mam nadzieje, że to dobry dział na ten temat.

Mam ostatnio problemy przy niektórych stronach otóż przy dodaniu mapy strony po jakimś czasie dostaje taki o to komunikat

=====

Przekroczenie limitu czasu dla adresu URL: Przekroczenie limitu czasu dla pliku robots.txt

Napotkaliśmy błąd podczas próby dostępu do tej mapy witryny. Sprawdź, czy mapa witryny jest zgodna z naszymi wymogami i można do niej uzyskać dostęp w podanej lokalizacji, a następnie prześlij ponownie. [?]

=====

Czasem dostaje info w postaci przekroczenia limitu połączenia z stroną www.

Rozumiem, że strona rzeczywiście wolno działa ale operacje powtarzałem wielokrotnie "tzn wczytaj ponownie mapę" i znowu ten sam błąd mam tak przy 3 witrynach na różnych serwerach strony oczywiście działają.

Co jest nie tak będę wdzięczny za wszelkie info.

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

#orideith to musisz mieć fajne skrypty skoro Ci muli niemiłosiernie, a co to znaczy?

strona wczytuje się 20 sekund?

heh bez jaj.

Sam bawię się na masternet skryptami phpbb by przemo i jakoś nie widzę by "muliło niemiłosiernie"

Ale oczywiście kontaktowałeś się w tej sprawie z samą firmą, prawda ?:)

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności