Skocz do zawartości

Google traci indeksację oraz gubi kopie


Artur

Rekomendowane odpowiedzi

To bardzo, normalne, rzekłbym. Ostatnimi czasy. Sprawdź różne DC. I na pewno nie tylko z Twoimi stronami.

pzdr.

omnia mea mecum porto

In general, it could be argued from the consumer point of view that the better the search engine is, the fewer advertisements will be needed for the consumer to find what they want.
Odnośnik do komentarza
Udostępnij na innych stronach

Mi wywalil okolo 30K stron z cache dla 1 tylko domeny ... ale w miedzyczasie druga dostala + 15K. Strasznie czesto zmieniaja sie wyniki ostatnio... Liczba odwiedzin na drugiej stronie podkoczyla o 100% w tym tygodniu ...

zmiana6nz.png

Odnośnik do komentarza
Udostępnij na innych stronach

wuel: sprawdzałem na wielu, co DC to inne wyniki, ale przeważnie wszystko leci w dół - może gogle sie zachłysnęło ilością informacji ? teraz się pozbywają bo ich serwery nie wyrabiają B)

Ja zaobserwowalem wywalenie 70k podstron z indexu na połowie sprawdzanych przeze mnie DC. Druga połowa zwiększyła ilość zaindexowanych podstron o 40k. Na tych DC co znikły all podstrony powoli jakby wszystko się odbudowywało, najpierw było 300 , 470, 930, teraz jest ponad 1k.

Mam wrażenie, jakby w google specjalnie czyścili sobie cache.

Jeśli chodzi o ruch to w jednym na szczęście tylko dniu wszyscy, których znam i mają NEO odczytywali DC, który miał 300 zaindexowanych podstron i spodek był zauważalny ale teraz już wróciło wszystko do normy + 5-7% średniego przyrostu odwiedzin dziennie.

Tylko pozycje stoją jakoś przylepione do miejsca i nie chcą się ruszyć.

Z cyklu "Przysłowia Polskie":
- "We wakacja jak i w wiosnę - Google podskakuje se radośnie."
Mój blog o pozycjonowaniu i nie tylko... Strona firmowa - www.antygen.pl

Odnośnik do komentarza
Udostępnij na innych stronach

3 tygodnie takich fal to i tak nie za dlugo biorac pod uwage fale "ciepla" i "zimna" w trakcie klimakterium u kobiet ;)

Klimakterium gugiela trwa do pazdziernika .... ale ja bym to nazwal zwyklym burdelem zwiazanym z brakiem opanowania sytuacji ktora wymknela sie spod kontroli. Szkoda ze nie maja odwagi przyznac sie do tego B)

...nic nie dzieje się bez przyczyny...

Odnośnik do komentarza
Udostępnij na innych stronach

Witam

Na jednym z moich serwisów zauważyłem, że google pozbywa się zcachowanych stron. W ciągu ostatnich 5 dni wyrzucilo ich 300000. Wpłynęło to oczywiście na ruch z google który spadł o 60%.

Czy komuś ostatnio google robi też takei niespodzianki?

Mnie robi ciągle i to z dosyć dużą regularnością. Mam na to swoją teorię, która mogłaby to wyjaśnić. Na mojej stronie w ciągu kilku ostatnich miesięcy stopniowo dokładam stron - po kilkaset za jednym zamachem. Przy rozłożeniu w czasie, z uwzględnieniem opóźnień robotów indeksujących można by w przybliżeniu założyć że jest to proces liniowy.

Zachowanie G: na kilku DC G zachłannie łyka sukcesywnie wszystkie nowe podstrony, aż site: na tych DC osiąga powiedzmy 160% średniego site: na pozostałych (w miarę stabilnych) DC. Następnie w ciągu jednego dnia site: rozchodzi się na wszystkie DC - ale po propagacji nie osiąga tych 160%, tylko powiedzmy 130%. I znowu te kilka DC indeksują nowe strony i tak w kółko. Wszystko odbywa się w cyklu ok. 2-tygodniowym.

Moja teoria jest taka:

- wydzielone DC mają za zadanie indeksowanie nowych stron i trzymanie ich TYLKO w swoich bazach (to tłumaczy fakt, że pomimo odwiedzin bota site: np. na google.com nie przyrasta); o ile dobrze zauważyłem, kopie stron nie są wtedy robione (albo są robione ale nie udostępniane);

- w ustalonym momencie (może czasowym, może różnica site: między danym DC a resztą) następuje propagacja danych do pozostałych DC. W czasie tej propagacji nowe strony nie są indeksowane, natomiast dochodzą do głosu FILTRY (to nazwa umowna, chodzi o dokładniejszą analizę zebranych stron). Nie wiem po czym filtrują, ale to by był np. dobry moment na filtr duplicate content. Być może wyłapują też jakieś duplikaty wewnątrz serwisu. Istnienie tych filtrów tłumaczyłoby fakt, że rozpropagowany site: jest mniejszy od maksymalnego na "zbierającym" DC;

- w tym momencie zbieranie nowych stron zaczyna się na nowo na wybranych DC.

Wydaje mi się też, że moment propagacji danych zbiega się w czasie z robieniem kopii stron.

Ta teoria mogłaby tłumaczyć skoki site:, obecności lub nie nowych podstron w zależności od DC, opóźnienie obecności kopii w porównaniu do obecności podstrony w indeksie.

Jak myślicie, czy to co piszę jest sensowne?

Tomek

Pobierz sobie tapety na komórkę.

Zobacz system Płatności SMS - kompleksowa obsługa SMS Premium Rate.

Car audio

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności