Skocz do zawartości

Jak teraz wygląda wyindeksowanie?


conradd

Rekomendowane odpowiedzi

 

Co zrobić żeby google szybko je wymieniło i żeby je było widać w wynikach wyszukiwania.

 

Podlinkować

 

 

OK. Ta właśnie zrobię.

 

Jedna rzecz jednak mnie martwi.

60 dni temu zmieniłem tytuł strony a Google jeszcze go nie uwzględniło.

Jak myślisz , dlaczego.

Strona spisuje się dobrze- szybko się indeksuje i reaguje na linki)

 

Odnośnik do komentarza
Udostępnij na innych stronach

Nie prościej dodać noindex na każdej podstronie?

 

robots.txt nie wyindeksuje Ci strony. Jak ktoś da link to i tak pojawi się w wynikach. Po prostu google teraz jest tak łapczywe, że indeksuje wszystko co tylko by chciało.

 

 

Nie prościej dodać noindex na każdej ppodstronie, bo tych podstron już nie ma. ktoś kumaty mi to wyjaśni? po cholere google zmieniało ten mechanizm wyindeksowania. Wcześniej usuwałem pliki strony, zgłaszałem w GWT do usunięcia i spokój a teraz?

Odnośnik do komentarza
Udostępnij na innych stronach

 

Nie prościej dodać noindex na każdej podstronie?

 

robots.txt nie wyindeksuje Ci strony. Jak ktoś da link to i tak pojawi się w wynikach. Po prostu google teraz jest tak łapczywe, że indeksuje wszystko co tylko by chciało.

 

 

Nie prościej dodać noindex na każdej ppodstronie, bo tych podstron już nie ma. ktoś kumaty mi to wyjaśni? po cholere google zmieniało ten mechanizm wyindeksowania. Wcześniej usuwałem pliki strony, zgłaszałem w GWT do usunięcia i spokój a teraz?

 

 

I dla set stron byś dla każdej dawał noindex w meta? Po to właśnie jest robots.txt tam będziesz mógł dodać wildcardsami całą pule stron.

 

 

Pozdrawiam

Pysio

Domondo.pl nowy sklep z osłonami przeciwsłonecznymi

Odnośnik do komentarza
Udostępnij na innych stronach

 

 

Nie prościej dodać noindex na każdej podstronie?

 

robots.txt nie wyindeksuje Ci strony. Jak ktoś da link to i tak pojawi się w wynikach. Po prostu google teraz jest tak łapczywe, że indeksuje wszystko co tylko by chciało.

 

 

Nie prościej dodać noindex na każdej ppodstronie, bo tych podstron już nie ma. ktoś kumaty mi to wyjaśni? po cholere google zmieniało ten mechanizm wyindeksowania. Wcześniej usuwałem pliki strony, zgłaszałem w GWT do usunięcia i spokój a teraz?

 

 

I dla set stron byś dla każdej dawał noindex w meta? Po to właśnie jest robots.txt tam będziesz mógł dodać wildcardsami całą pule stron.

 

 

Pozdrawiam

Pysio

 

 

Powtórzę: po to, że jeśli ktokolwiek i gdziekolwiek da link to i tak google będzie miało w du**e robots i poindeksuje co tylko się da tyle, że z dodatkiem "nie mogliśmy pobrać opisu strony... bla bla". 

 

Nie wiem kto ci każe dawać ręcznie noindex? w każdym normalnym języku zrobisz sobie jakiś warunek i masz tam gdzie chcesz na tysiącu stron. 

 

Nie chce mi się debatować bo może kiedyś zobaczysz, że Gugiel ma w d... czasem wytyczne co ma a czego nie ma indeksować (włącznie z buszowaniem po zasobach wskazywanych przez JS-a)...

Odnośnik do komentarza
Udostępnij na innych stronach

5corpio do mnie piszesz?

Bardzo dobrze wiem, że Google indeksuje nawet to co ma zakazane. Ba potrafi zaindeksować nawet to do czego nie prowadzą żadne linki. Sam dopisuje do adresu witryny domyślne/popularne ciągi URL. (Jak chcesz mogę postarać się poszukać artykułu który czytałem z 7-8 lat temu).

Wiem również, że w "normalnym" języku doda Ci od razu tam gdzie chcesz (w tych nienormalnych również).

Różnica jest taka, że aby "zobaczyć" no index na każdej stronie Google musi odwiedzić każdą z tych stron. Jeżeli umieścisz w pliku robots wystarczy, że przeczyta ten jedne plik.

Sam piszesz dodać do każdej podstrony, ale że Google to oleje i zrobi co zechce to w końcu dodawać czy nie?

Autor pytał jak wyindeksować dostał odpowiedź bez wchodzenia w techniczne szczegóły, to że G. i tak zaindeksuje a po prostu nie wyswietli to szczegół.

 

Pozdrawiam

Pysio

 

Domondo.pl nowy sklep z osłonami przeciwsłonecznymi

Odnośnik do komentarza
Udostępnij na innych stronach

1. Wywalić stronę w Consoli

https://www.google.com/webmasters/tools/url-removal

2. Ustawić w pliku robots.txt noindex.

3. Ustawić meta na stronie noindex

4. Ustaw 404/410 dla strony.

 

Pozdrawiam

Pysio.

 

P.s. Co raz znalazło się w Internecie już tam zostaje.

Domondo.pl nowy sklep z osłonami przeciwsłonecznymi

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Jeśli docelowo i tak planujesz usunąć pliki z serwera, to po prostu skorzystaj z opcji usuwania adresów URL z poziomu Search Console. Zgłoszenie zostanie przetworzone w ciągu kilku godzin i jeśli strona zostanie potem całkowicie usunięta, nie powinna wrócić do indeksu.

 

Oczywiście możesz skorzystać z noindex, ale wtedy wyindeksowanie zajmie więcej czasu. A opcja z SC jest prawie natychmiastowa.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeszcze ja się zapytam bo mam problem w tym temacie, 
Jak poprzez te usuwanie url w webmaster tools dodać na raz kilkadziesiąt url'i ?
Albo usunąć wszystkie adresy które rozpoczynaja się od https:// domena.com/news-old/....

Bo czekanie z noindex na to aż samo wyindeksuje to zajmie lata

Najnowsza muzyka i nie tylko na https://nuteczki.top a dla kobiet ploteczki na https://ebabki.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności