Skocz do zawartości

Update Jagger, 16 października 2005r.


franckey

Rekomendowane odpowiedzi

Spisałem uwagi z topiku oraz moje własne doświadczenia, doszedłem do poniższych wniosków. Pdsumujmy czy i Wy zauważyliście podobne prawidłowości

Krótkie podsumowanie:

1 google znacznie wolniej przyznaje wage linkom - co ogranicza skuteczność rotacyjnych systemów linków;

2 większe znaczenie mają linki ze stron uznanych przez googla za wiarygodne (a wiadomo ze google zatrudnia ludzi do przeglądania i ręcznego modyfikowania wyników);

3 google skuteczniej wyłapuje duplicate content;

4 pospadały strony mające więcej niż 15 linków wychodzących poza domenę;

5 lecą w dół strony, na których nic się nie dzieje, znaczy brak zmian i aktualizacji;

6 oberwały niektóre katalogi, a raczej skrypty na których są postawione - Panie i Panowie, najwyższy czas modyfikować i to ostro skrypty wykorzystywane na waszych katalogach ;);

7 podejrzewam albo klikohita albo szczytywanie przez googla jakie strony ludzie dodają do zakładek (raczej to drugie).

Jeśli ktoś coś jeszcze zauważył - piszcie, spróbujmy skomasować naszą wiedzę :blink:

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 1,2 tys.
  • Dodano
  • Ostatniej odpowiedzi

Nie chwal dnia przed...pewnością, że google już skończyło... Ja na samym początku jagger`a też miałem wzrosty o 2-3 pozycje, a teraz mam pozycje o 3 do 10 miejsc gorsze od stanu przed jaggerem

If I could have my wasted days back

Would I use them to get back on track?

Stop to warm and karma’s burning

Or look ahead , but keep on turning?

--------------------

iconm.gif - Metallica

Odwiedź Tattoo Studio i zrób sobie profesjonalny tattoo

Potrzebujesz więźbę dachową lub inne drzewo - tartak

Odnośnik do komentarza
Udostępnij na innych stronach

2 większe znaczenie mają linki ze stron uznanych przez googla za wiarygodne (a wiadomo ze google zatrudnia ludzi do przeglądania i ręcznego modyfikowania wyników);

3 google skuteczniej wyłapuje duplicate content;

4 pospadały strony mające więcej niż 15 linków wychodzących poza domenę;

5 lecą w dół strony, na których nic się nie dzieje, znaczy brak zmian i aktualizacji;

2. jak to sobie wyobrażasz? że Chińczyki beda jak tresowane małpki przeglądać 1 000 000 stron dziennie?

jak masz pr8,pr9 to może przeglądają ;)

3. a właśnie jest na odwrót, w niektórych miejscach np. pod słowem 'mapa polski' masz niezłe eldorado

4. jakieś konkretne wyliczenia? bo to nie ma sensu.... nie liczy się ilość tylko jakość linków

5. mi poleciały strony aktualizowane codziennie, a jedna w miare statyczna, optymalizowana na tych samych zasadach została na miejscu...

Odnośnik do komentarza
Udostępnij na innych stronach

2 większe znaczenie mają linki ze stron uznanych przez googla za wiarygodne (a wiadomo ze google zatrudnia ludzi do przeglądania i ręcznego modyfikowania wyników);

3 google skuteczniej wyłapuje duplicate content;

4 pospadały strony mające więcej niż 15 linków wychodzących poza domenę;

5 lecą w dół strony, na których nic się nie dzieje, znaczy brak zmian i aktualizacji;

2. jak to sobie wyobrażasz? że Chińczyki beda jak tresowane małpki przeglądać 1 000 000 stron dziennie?

jak masz pr8,pr9 to może przeglądają ;)

Nikt nie musi przeglądać milionów stron dziennie. Wystarczy ze kilkadziesiąt osób przegląda strony które w uznanych katalogach, typu DMOZ otrzymały wyróżnienie. Sprawdza się czy strona rzeczywiście jest wiarygodna i rzeczowa i przyznaje jej się status strony wiarygodnej. Coś jak krok w kierunku Trust Rank.

3. a właśnie jest na odwrót, w niektórych miejscach np. pod słowem 'mapa polski' masz niezłe eldorado

Są dwie możliwości - mylę się jeśli chodzi o duplicate content, albo jeszcze nie skończyli wyłapywać duplikatów

4. jakieś konkretne wyliczenia? bo to nie ma sensu.... nie liczy się ilość tylko jakość linków

Liczy sie i jakość i ilość linków wychodzących OBL. Nie piszę o stronach linkujących do nas, tylko o tym, ze my linkujemy do innych stron. Ograniczenie możliwości sprzedawania linków jest całkiem niezłym sposobem na utrudnienie pozycjonowania.

Skąd mam takie dane? sprawdziłem strony którch właściciele się skarżyli na spadki - większość z nich miało w stopkach po kilkanaście - kilkadziesiąt OBL

5. mi poleciały strony aktualizowane codziennie, a jedna w miare statyczna, optymalizowana na tych samych zasadach została na miejscu...

IMO algorytm googla stał się nieco bardziej skomplikowany - to już nie będą tylko linki, linki, linki + odrobina optymalizacji kodu w metatagach itp.

Odnośnik do komentarza
Udostępnij na innych stronach

Nikt nie musi przeglądać milionów stron dziennie. Wystarczy ze kilkadziesiąt osób przegląda strony które w uznanych katalogach, typu DMOZ otrzymały wyróżnienie. Sprawdza się czy strona rzeczywiście jest wiarygodna i rzeczowa i przyznaje jej się status strony wiarygodnej. Coś jak krok w kierunku Trust Rank.

ale DMOZ nie jest obiektywnym forum, powoli zaczyna przypominać śmietnik

G jest na razie firmą publiczną i nie majstruje w ten sposób przy wynikach bo nie o to chodzi!!

Nikt normalny dzisiaj nie bedzie ustawiał setek stron ręcznie bo prowadzi to do sytuacji jaka była wiele lat temu z Ask Jeeves

Nie wiem, może źle pamiętam, ale o ile kojarze to TrustRank nie polegał na ręcznym ustawianiu statusu wyników

Liczy sie i jakość i ilość linków wychodzących OBL. Nie piszę o stronach linkujących do nas, tylko o tym, ze my linkujemy do innych stron. Ograniczenie możliwości sprzedawania linków jest całkiem niezłym sposobem na utrudnienie pozycjonowania.

ale ja właśnie pisze o stronach do których linkujesz ze swoich stron, tak przecież działa TR, ale pamiętaj że sprzedaż linków jest już dzisiaj wykrywana, i to nie ma połączenia z J, ponieważ nie wszyscy mają linki w "sprzedajnych miejscach"

ale, być może to chcieli zrobić, ale system nie zdał rezultatu? gdybanie :]

IMO algorytm googla stał się nieco bardziej skomplikowany - to już nie będą tylko linki, linki, linki + odrobina optymalizacji kodu w metatagach itp.

metatagach ?

tego nigdy G nie tolerował :]

Odnośnik do komentarza
Udostępnij na innych stronach

ale DMOZ nie jest obiektywnym forum, powoli zaczyna przypominać śmietnik

G jest na razie firmą publiczną i nie majstruje w ten sposób przy wynikach bo nie o to chodzi!!

Nikt normalny dzisiaj nie bedzie ustawiał setek stron ręcznie bo prowadzi to do sytuacji jaka była wiele lat temu z Ask Jeeves

Nie wiem, może źle pamiętam, ale o ile kojarze to TrustRank nie polegał na ręcznym ustawianiu statusu wyników

Google od dawna był podejrzewany o uznawanie pewnych stron za wyjątkowo wartościowe. I linki z nich miały bardzo wysoki efekt pozycjonujący, o wiele wyższy niż wynikało by to z ich PR. A takie strony trzeba ssprawdzic ręcznie. Poza tym google rekrutuje ludzi własnie do przeglądania stron. Czy konkretnie w tym celu - nie wiem, ale takie podejrzenie chodzi po mojej głowie :P

ale ja właśnie pisze o stronach do których linkujesz ze swoich stron, tak przecież działa TR, ale pamiętaj że sprzedaż linków jest już dzisiaj wykrywana, i to nie ma połączenia z J, ponieważ nie wszyscy mają linki w "sprzedajnych miejscach"

ale, być może to chcieli zrobić, ale system nie zdał rezultatu? gdybanie :]

Wg. Ciebie jest to mało prawdopodobne, ja zaś coś takiego zaobserwowałem. Mozę więc warto przeprowdzić jakieś testy i sprawdzić wyniki? Wtedy będziemy mieli pewność

metatagach ?

tego nigdy G nie tolerował :]

Się w pośpiechu nieprecyzyjnie wyraziłem :( Chodzi mi o title i description, które na googla pewien wpływ ma.

Odnośnik do komentarza
Udostępnij na innych stronach

Wg. Ciebie jest to mało prawdopodobne, ja zaś coś takiego zaobserwowałem. Mozę więc warto przeprowdzić jakieś testy i sprawdzić wyniki? Wtedy będziemy mieli pewność

takie coś istnieje, ale wydaje mi się że wartościowanie takich linków zaczeło się jeszcze przed J

Odnośnik do komentarza
Udostępnij na innych stronach

Jestem teraz niemal w 100% pewny ze google obecnie nie aktualizuje wyników !

Dla testow zacząłem pozycjonowac moją stronke od kilu ladnych dni byla chyba na 14pozycji. Chyba w czwartek patrze a na wszystkich DC przeskoczyla na 11 miejsce, pomyslalem ze to moze jeszcze jakies skoki takie zwiazane z ruchem konkurencji moze... dzis patrze wszystkie DC wskazuja 7 pozycjie, wchodze na interie.pl wpisuje kluczowe slowo - 7 pozycja jest. W google jak byla 14 pozycja tak jest... fakt moze kiedys wskoczy w google ale jak narazie google spi i to juz od dluzszego czasu... cos jest nie tak, mysle ze nadal maja problemy i odciazyli serwery walsnie poprzez nieaktualizowanie, jedynie dodaja nowe strony + chyba dodaja linki ale narazie nie przeklada sie to na pozycjie czyli widac pobieraja dane ale nie przeliczaja ich... porażka... moze zrobimy im zrzute na jakies dodatkowe serwery by w koncu cos ruszylo ... ;)

https://www.punktseo.pl/darmowe-bonusy/ << rozdaje: kody do katalogów firm, kody rabatowe, szablony ZennoPoster ! |---| Moje strony: https://www.s90.pl/pozycjonowanie/ | https://www.seo-stat.pl - zapraszam.                                                                                                                                                                                          

seo-stat-logo.png

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności