Skocz do zawartości

Jeszcze o filtrach


dargre`

Rekomendowane odpowiedzi

Wielu z nas i was ma problemy z filtrami Google.

I ja niejeden raz ich nie ominąłem.

Więc każda rada na wagę złota.

Częś mówi, czekać, linkować itp.

Wielu idzie dalej, pisząc: content, content...

I może jeszcze: róznicować META, seo frindly URL-e...

No to i ja jeszcze swoje dodam, choć było już:

Jeśli masz sitemapę zgłoszoną do Google - wywal ją czym prędzej.

Cuda robiłem, co by wyjść z filtra i dopiero właśnie wywlenie sitemap pomogło.

Wiem, że nie zawsze zaskutkuje, ale próbować warto.

Sorry, nie odpowiadam na PMy

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 44
  • Dodano
  • Ostatniej odpowiedzi

Ja też wyrzuciłem sitemap i na 2 tyg. wypadłem z filtra.

Nie jestem pewien, ale wydaje mi się, że jeśli wrzucimy sitemap przed indeksacją strony to szansa na filtr wzrasta (przynajmniej u mnie takie wrażenie sprawiało).

Odnośnik do komentarza
Udostępnij na innych stronach

Fajnie, że piszecie, im więcej spostrzeżen, tym bliżej jesteśmy prawdy.

A swoją drogą ciekawe jak jest jesli wyrzucimy sitemap, wrócimy z filtra i po kilku dniach z powrotem wrzucimy sitemapę.

Ktoś ma jakieś doświadczenia w tym zakresie?

No i wogóle daje do myślenia takie zachowanie Google...

Sugeruję poza samym wyrzuceniem sitemap, dokonać więcej niezbędnych zmian, które mogły waszym zdaniem być powodem filtra.

Sorry, nie odpowiadam na PMy

Odnośnik do komentarza
Udostępnij na innych stronach

Macie jakieś dziwne spostrzeżenia :)

Po prostu filtr jest zakładany na domeny które mają coś nie tak z connentem albo z linkami i tyle.

a)Zawartość nowej witryny:

1) powinno być co najmniej 60% (mniej więcej) unikalnych słów

2) żadne słowo nie powinno stanowić więcej niż 2,5% (mniej więcej) spośród unikalnych słów

3) reszta to szczegóły na przykład: za dużo słów w nagłówkach, altach albo zła konstrukcja strony itd

b)Linki

1) Należy olać filtry kiedy jesteśmy w trakcie intensywnego linkowania, filtr sam zejdzie jak się wszystko uspokoi

2) W przypadku wystąpienia filtra najlepiej zdobyć dużo wartościowych linków

3) Czekać i czekać i tyle

Ja osobiście mam gorszego filtra bo na całą domenę, na wszystkie słowa prawdopodobnie za qlweby w podkatalogach. Olałem sobie na jakiś czas tą domenę, wyrzuciłem część katalogów i czekam ale to inna historia bo miałem więcej złamanych "wskazówek dla webmasterów" :(

Inaczej mówiąc daliście się złapać na oszukiwaniu i google się denerwuje ale jak się poprawicie to wam wybaczy :(

PS

Reklamy adsense pomagają w takich sprawach

nihil fit sine causa

Odnośnik do komentarza
Udostępnij na innych stronach

Po dodaniu sitemapy w google zawierającej w sumie 60000 url-i -(forum i galeria) oglądalność wzrosła mi o 40% w dwa tygodnie i tak się trzyma. Myśle, że sitemapa może co najwyżej mobilizować manualne sprawdzenie domeny. Co do adsense - też mam wrażenie, że strony z adsense są lepiej pozycjonowane.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeżeli strona załapie filtr to spada w wynikach i automatycznie ruch na stronie się zmiejsza. Czy w takim przypadku przyrost nowych linków nie powinien się zmniejszyc? Bo tak właśnie będzie jeżeli strona jest naturalnie pozycjonowana.

Wszyscy twierdzą że należy linkować dalej, ale takie postępowanie będzie nienaturalne.

Czasem filtr jest zaskoczeniem i nie wiadomo czemu i za co.

A może to jest jeden z testów google? Daje filtr bez powodu i sprawdza czy przyrost linków następuje dalej. Jezeli tak, to oznacza że strona jest podpięta pod system wymiany linków. I wtedy leci filtr na rok.

Co o tym myslicie? Bo do tej pory wszystkie rady były aby dalej linkować tak samo jak przed dostaniem filtra.

.

Odnośnik do komentarza
Udostępnij na innych stronach

No to poszło w złą stronę....

Dlaczego jest filtr, skąd się bierze - tego do końca nikt pewnie nie może być pewny.

Dyskutujemy jak wyjść i co po wyjściu.

Zanotowałem dwukrotnie wyjście z filtra 2-3 dni po usunięciu Google sitemapy.

Wiem, że wielu miało podobnie i stąd pytanie co o tym sądzicie...

Czy czasem nie jest tak, że Google jest zbytnio dociekliwy mając do dyspozycji sitemapę.

No i jak postępować po zdjęciu sitemap i wyjściu z filtra, tak, żeby nie wrócił...

lolaxxxxx

bądź poważniejszy, nie wszyscy tu są dziećmi.

Jest zjawisko i trzeba je próbować rozwikłać.

Zjawiskiem w tym przypadku jest wyjście z filtra po usunięcia sitemapy, a nie sam filtr.

Sorry, nie odpowiadam na PMy

Odnośnik do komentarza
Udostępnij na innych stronach

Dodaj linki na stronach głównych z wysokim PR i filtr zniknie.

A jak chcesz rozwikłać to zjawisko to musisz sobie napisać skrypt/program który będzie analizował strony z filtrem i te bez filtra oraz ich linki na dane słowa kluczowe w miarę możliwości podobnymi metodami co algorytm google. Wtedy będziesz miał jak na dłoni to za co dostałeś filtr. Zacznij od pochodnej, przyrostu linków po czasie z uwzględnieniem wartości witryn :)

PS

Google bada statystycznie całą zawartość witryny z podstronami. Osobiście nie spotkałem się z takim zjawiskiem przy usuwaniu sitemap. Ale przypuszczam że dzięki temu bot ma dostęp do mniejszej części witryny i natężenie słów kluczowych procentowo jest większe dla całej strony. A po paru dniach google dobiera się do "zaginionych" podstron i natężenie słów spada dzięki czemu lecisz w rankingu, zauważ że zwykle na więcej słów.

PS2

Więc jeżeli powyższa teza wydaje się prawdziwa to oznacza tylko jedno:

- podstrony nie są powiązane tematycznie ze stroną główną lub są w zbyt małym stopniu

PS3

Aby to sprawdzić doklej na podstronach słowa filtrowane na tych na których oczywiście ich nie ma i daj znać :D

nihil fit sine causa

Odnośnik do komentarza
Udostępnij na innych stronach

Dyskutujemy jak wyjść i co po wyjściu.
Ja też o tym samym. Tylko zastanawia mnie co będzie najbardziej naturalne? Zwiekszenie przyrostu linków, zostawienie na tym samym poziomie czy odpuszczenie na pewien czas?
w miarę możliwości podobnymi metodami co algorytm google
Możesz zdradzić jakie miały by to być metody? :D

.

Odnośnik do komentarza
Udostępnij na innych stronach

a ja mam takie laickie pytanie: mam nowe forum dopisalem sie do link me i początkowa ilość linków - ile radzicie? ustawilem 3 dziennie ale boje sie tego całego filtra

punktów mam na tyle ze moge dać sobie więcej spokojnie, ale boje sie o ten filtr... co radzicie... każdego wysłucham, chętnie pogadam na GG: 3223289

wiem ze na takich forach nie lubicie noobów ale od czegoś musze zacząc... a te tematy jak laik czyta to połowy słow nie czai to jak ma zrozumiec :D

Odnośnik do komentarza
Udostępnij na innych stronach

Dodaj linki na stronach głównych z wysokim PR i filtr zniknie.

A jak chcesz rozwikłać to zjawisko to musisz sobie napisać skrypt/program który będzie analizował strony z filtrem i te bez filtra oraz ich linki na dane słowa kluczowe w miarę możliwości podobnymi metodami co algorytm google. Wtedy będziesz miał jak na dłoni to za co dostałeś filtr. Zacznij od pochodnej, przyrostu linków po czasie z uwzględnieniem wartości witryn :)

PS

Google bada statystycznie całą zawartość witryny z podstronami. Osobiście nie spotkałem się z takim zjawiskiem przy usuwaniu sitemap. Ale przypuszczam że dzięki temu bot ma dostęp do mniejszej części witryny i natężenie słów kluczowych procentowo jest większe dla całej strony. A po paru dniach google dobiera się do "zaginionych" podstron i natężenie słów spada dzięki czemu lecisz w rankingu, zauważ że zwykle na więcej słów.

PS2

Więc jeżeli powyższa teza wydaje się prawdziwa to oznacza tylko jedno:

- podstrony nie są powiązane tematycznie ze stroną główną lub są w zbyt małym stopniu

PS3

Aby to sprawdzić doklej na podstronach słowa filtrowane na tych na których oczywiście ich nie ma i daj znać :D

No to już było merytorycznie.

Niemniej nijak sie ma do mojej strony.

1. Linki mam silne, nawet z PR7. Sama strona PR5, z dużą ilością podstron (30K). Wiele stron też mocno podlinkowane.

Wiele linków naturalnych...i to nie tylko do homepage, strona na to zasłużyła sobie.

Więc chyba rzecz nie w linkach... Sama domena silniejsza niż wskazuje na to PR.

2. Raczej zaginionych stronek będzie niewiele bo BOT mieli stronę z bardzo wysoką częstotliwością.

3. Słów filtrowanych nie mam po co szukać, bo sfiltrowane są po całości. Nie ma więc sensu czegokolwiek doklejać.

Miałem setki TOP10, po filtrze ani jednej. Po powrocie znowu setki. Dotyczy Google EN.

Powód filtra mógłbym dopatrywać się w dużej ilości nie seo-friednly URLs (to dawno zmieniłem i wszystko jest unikatowe, łącznie z META)

Inny powód - w pewnym momencie doszukałem się 9K stronek z 404 ;)

Taki już urok skryptu, o czym nie miałem pojęcia. Stronki istaniały, ładowały się OK, a 404 wisiał i tak.

No ale i to dawno poprawiłem i przed wywaleniem sitemapy na 30K stron 0 było z 404.

Wróciłem - to najważniejsze. Dzisiaj szaleństwo na stronie.

Niemniej obawa pozostaje o powrót do filtra...

Mam nadzieję, że następny update sprawę do końca wyjaśni, bo zwykle tuż przed i po następuje wpadanie i wypadanie z filtra.

Sorry, nie odpowiadam na PMy

Odnośnik do komentarza
Udostępnij na innych stronach

Google bada statystycznie całą zawartość witryny z podstronami. Osobiście nie spotkałem się z takim zjawiskiem przy usuwaniu sitemap. Ale przypuszczam że dzięki temu bot ma dostęp do mniejszej części witryny i natężenie słów kluczowych procentowo jest większe dla całej strony. A po paru dniach google dobiera się do "zaginionych" podstron i natężenie słów spada dzięki czemu lecisz w rankingu, zauważ że zwykle na więcej słów.

Filtr nie ma nic wspólnego z indeksacją, a już teoria o 'statystycznej, wyrywkowej indeksacji całej witryny' jest dzika.

Więc jeżeli powyższa teza wydaje się prawdziwa to oznacza tylko jedno:

- podstrony nie są powiązane tematycznie ze stroną główną lub są w zbyt małym stopniu

Jak podstrony mają być nietematyczne jak wcześniej pisałeś, że strona jest badana statystycznie?

Odnośnik do komentarza
Udostępnij na innych stronach

Dodaj linki na stronach głównych z wysokim PR i filtr zniknie.

A jak chcesz rozwikłać to zjawisko to musisz sobie napisać skrypt/program który będzie analizował strony z filtrem i te bez filtra oraz ich linki na dane słowa kluczowe w miarę możliwości podobnymi metodami co algorytm google. Wtedy będziesz miał jak na dłoni to za co dostałeś filtr. Zacznij od pochodnej, przyrostu linków po czasie z uwzględnieniem wartości witryn :)

Chyba głowa pamięta jakie linki ręce dodały... co do tych pochodnych i procentów contentu - nie przesadzaj z wiarą w 100% w kursy cneb, bo często są nieaktualne :)

PS

Google bada statystycznie całą zawartość witryny z podstronami. Osobiście nie spotkałem się z takim zjawiskiem przy usuwaniu sitemap. Ale przypuszczam że dzięki temu bot ma dostęp do mniejszej części witryny i natężenie słów kluczowych procentowo jest większe dla całej strony. A po paru dniach google dobiera się do "zaginionych" podstron i natężenie słów spada dzięki czemu lecisz w rankingu, zauważ że zwykle na więcej słów.

Mówimy tu o filtrze, a nie o rankingu - za mniejsze natężenia słów kluczowych filtra się raczej nie dostanie; ja przynajmniej o takim przypadku jeszcze nie słyszałem.

PS2

Więc jeżeli powyższa teza wydaje się prawdziwa to oznacza tylko jedno:

- podstrony nie są powiązane tematycznie ze stroną główną lub są w zbyt małym stopniu

PS3

Aby to sprawdzić doklej na podstronach słowa filtrowane na tych na których oczywiście ich nie ma i daj znać :D

A zawsze myślałem że filtr dostaje się za za ostre podlinkowanie strony - miałem już takich przypadków dosyć dużo - zawsze dlatego, że po pijaku przespamowałem adderem stronę we wszystkich katalogach kilka razy :)

Odnośnik do komentarza
Udostępnij na innych stronach

Sorry koledzy ale myślicie bardzo zaściankowo.

FIltry są na całym świcie a nie wyłącznie w Polsce.

1. Nigdy nie uzywałem żadnych qlwebów (poza Polską nikt tego nie robi)

2. Nigdy nie używałem żadnych adderów.

3. Żadnych sztucznych metod, żadnych sztuczek na stronach.

4. Same strony są XHTML Valid wg W3C.

Na filtra nie ma rady - każdy może wpaść i to zupełnie przypadkowo.

Wpadałem już ze stroną, ktora składa się z 6 podstron, z których każda jest komletnie unikatowa i prawdziwa, strona czysta XHTML valid, 3-lata, PR5 i w dodatku w DMOZi-e. Linki wyłącznie tematyczne i naturalne. Żadnych nienaturalnych przyrostów. Na stronie zmieniane jedynie newsy dotyczące programów (strona developerska).

Więc czysta przypadkowość. 3 lata się strona podoba i nagle bęc i filtr? I potem znowu to samo się podoba?

Nie uwierzę w żadne teorie dostawania filtru. Ot przypadek i tyle.

Ciekaw jeszcze tylko jestem jak to jest z wychodzeniem? Też przypadek?

Sorry, nie odpowiadam na PMy

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności