Witam
Przejąłem po kimś serwis oparty na Wordpresie. Przez długi czas działał bez SSL.
Na HTTPS przez miesiące był jakiś błąd (pokazywała się strona testowa Apache, a nie właściwa), później przez miesiąc
permanentny error 500 (także na http) więc strona wypadła z indeksu.
Zmodyfikowałem/zaktualizowałem stronę, jest na nowym serwerze, obecnie ma już działający SSL i kilkaset nowych działających podstron.
Setki podstron już nie istnieją.
Przygotowałem aktualny sitemap.xml (z adresami https://example.com/*).
Niestety indeksowanie idzie wolno (być może teraz jest to normalne, kilka lat nie zgłaszałem stron do GSC).
Głównie GoogleBot próbuje wchodzić na już nieistniejące adresy http wiec jest
- redirect 301 z https://example.com/nieistniejacy_juz_link
- 404 z https://example.com/nieistniejacy_juz_link
W GSC w profilu dla wersji HTTPS (dopiero minęła doba) nie ma żadnych linków (sitemap.xml zaczytał)
Na HTTP jest 1300 błędnych linków i kilkanaście prawidłowych.
Sitemap mam dodany w GSC tylko do wersji https (z linkami https://...)
Jest link do sitemap w robots.txt. Więc Google wchodząc na https://www.example.com/robots.txt ) i tak zobaczy (po 301) adres sitemap.xml
Czy warto dodać (zgłosić) w GSC do wersji HTTP przerobiony sitemap (zamienić tylko w https na http we wszystkich linkach)?
Czy przyspieszy to indeksowanie (choć będzie 301 dla tych linków)?.
A może zgłosić dla wersji HTTP sitemap.xml z docelowymi adresami https://
Czy lepiej nic nie robić i po prostu trzeba czekać kilka tygodni?
Aż Google się skapnie, że te linki są już nieaktualne.
Oczywiście ja rozumiem warto zadbać o zmianę kierujących do strony linków zewnętrznych, aby były https, a nie http.
Pozdrawiam