Skocz do zawartości

wordpress - problem a indeksacją


Kacperek

Rekomendowane odpowiedzi

Witam,

tydzień temu postawiłem wordpress-a (jako wartościową stronę), obecnie ok 10 artykułów.

Dodałem linki na swojej innej stronie (do każdego artykułu), kilkanaście katalogów (dodatkowa każdy z linkiem w opisie do danego artykułu).

Stan: zaindeksowana strona główna (i tylko ona)!

Skórka: Notepad

Wtyczki: All in one Seo / qiuck adsense / XML Sitemap

Na innych strona, podstrony indeksowały mi się w przeciągu 24 godzin?

Moją uwagę przykuł plik robots.txt (który jest w przeglądarce - jak wpisze domena/robots.txt, a na serwerze nie mogę go znaleźć).

Treść:

User-agent: *

Disallow:

Może : ,,Disallow" powoduję błąd, ale nie wiem gdzie to zmienić :C

Miał ktoś podobny problem?

Pozdrawiam,

Kacperek

Odnośnik do komentarza
Udostępnij na innych stronach

sprawdzić czy w opcjach jest ustwione blokowanie robotów wyszukiwarek.

Agencja marketingowa Semgence istnieje na rynku od 2018 i odpowiada za prowadzenie działań SEO dla wielu firm małych i dużych. Prowadzimy też kampanie Google Ads - niedawno zostaliśmy sie Partnerem Google spełniając odpowiednie kryteria. Betapoint

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

  zgred napisał(a):
sprawdzić czy w opcjach jest ustwione blokowanie robotów wyszukiwarek.
  Kacperek napisał(a):
Stan: zaindeksowana strona główna (i tylko ona)!

;)

Linkować, czekać cierpliwie.

eM

Strona https://sklep-promar24.pl to sklep internetowy sprzedający dobre polskie zlewozmywaki.

Odnośnik do komentarza
Udostępnij na innych stronach

falcon - Sitemap jest tworzony automatycznie za pomocą wtyczki

zgred - sprawdzone (jest ok)

dodam, że strona jest pingowana.

Tymczasowo zmieniłem templatkę, może to ona powodowała problemy?

Pozdrawiam i dziękuje za odzew ;)

EDIT:

Mariusz o tym pamiętam, tylko dziwi mnie to, że strona główna jest już w TOP 25 na interesującą mnie frazę a podstrony nie są zaindeksowane :(

Pozdrawiam,

Kacperek

Odnośnik do komentarza
Udostępnij na innych stronach

Nie musisz pingować.

Dla normalnych stron zdecydowanie wystarczą pingi wbudowane w mechanizm WP.

No chyba, że stawiasz spama ;)

Cierpliwości.

Tydzień to mało.

Podaj adres na PW.

eM

Strona https://sklep-promar24.pl to sklep internetowy sprzedający dobre polskie zlewozmywaki.

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak piszesz problem może powodować templatka. Miałem taki przypadek z jedną stroną gdy indeksowało mi bardzo mało podstron mimo, że wpisów było sporo. Zmieniłem dla próby templatkę i po paru dniach skoczyło do góry jak trzeba. Po tygodniu nawet bez linków powinieneś mieć kilka podstron zaindeksowanych.

Odnośnik do komentarza
Udostępnij na innych stronach

  mkmak napisał(a):
Tak jak piszesz problem może powodować templatka.

E tam.

Czekaj, aktualizuj, roboty się na pewno zainteresują. Prędzej czy później.

Pozdrawiam, Paweł Ryszka. Potrzebujesz copywritera? Pisz na kontakt [at] dobreteksty.pl!

 

Gry komputerowe - najlepsze w sieci! SEO dla początkujących - wejdź! 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 1 miesiąc temu...

Cześć.

Pozwoliłem sobie odgrzebać wątek bo zmagam się z troszeczkę podobnym problemem.

Uruchomiłem dzisiaj stronę opartą na wordpress-ie. Dodałem adres do GWT wskazałem plik sitemap. Po paru minutach na GWT pojawiła się informacja: Wykryto poważne problemy z witryną. - Sprawdź stan witryny a dalej: Jedna z ważnych stron jest blokowana przez plik robots.txt. Więcej szczegółów

Pierwsze co przyszło mi do głowy to Ustawienia Prywatności - Blokowanie robotów wyszukiwarek - okazało się, że faktycznie, przed wgraniem mapy strony zapomniałem wyłączyć blokowanie robotów. Błąd swój natychmiast poprawiłem. Zweryfikowałem treść pliku robots.txt

User-agent: *
Disallow:
Sitemap: [url="https://domena/sitemap.xml.gz"]https://domena/sitemap.xml.gz[/url]

Spróbowałem ponownie zgłosić plik mapy do GWT. Niestety błąd był ciągle ten sam. W menu "Dostęp dla robotów" otrzymałem następującą wiadomość:

Zablokowane w wierszu 2: Disallow: /

Wykryto jako katalog, poszczególne pliki mogą mieć różne ograniczenia

A kod wyglądał tak:

User-agent: *
Disallow: /
Sitemap: [url="https://domena/sitemap.xml.gz"]https://domena/sitemap.xml.gz[/url]

Troszeczkę zaniepokojony sprawdziłem źródło strony w poszukiwaniu wpisów meta dotyczących robotów (noindex/nofollow) ale nic nie znalazłem.

Ostatecznie trafiłem na narzędzie: https://tool.motoricerca.info/robots-checker.phtml sprawdzające plik robots.txt.

Po przeskanowaniu mojego pliku otrzymałem następującą wiadomość: The following block of code ALLOWS the crawling of all files and directories to all spiders/robots. oznaczającą, że wszystko z plikiem jest w porządku.

Moje pytania brzmią:

Czy to normalne, że GWT tak długo reaguje na zmiany ?

Czy jest jakiś szybszy sposób na zaindeksowanie strony ? (w tym momencie po wpisaniu w wyszukiwarce: site:domena nic sie nie pojawia)

PS.

Istnieje możliwość, że przeoczyłem coś oczywistego. To moja pierwsza strona.

Pozdrawiam i z góry dziękuję za pomoc.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności