Skocz do zawartości

update serp


daniellito

Rekomendowane odpowiedzi

Tyle, ze ja widze podobna sytuacje na wielu frazach ;)

Dobre jest tez na "poradnik ogrodniczy" - na 7 miejscu link do "ogrodniczy.friko.pl", a na stronie docelowej zero tresci i graficzny link (przy cyzm grafika sie nie ładuje) do nieistniejacej storny. Jakość wynikow coraz ciekawsza ;)

Darmowe programy
Potrzebujesz tekstów w krótkim czasie? Sprawdź tutaj.

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 1,5 tys.
  • Dodano
  • Ostatniej odpowiedzi
Tyle, ze ja widze podobna sytuacje na wielu frazach ;)

Wszyscy to widzą - miejsca w serpach się marnują przez niedziałające strony, ale obecnie Google skupia się na najlepiej dobranych reklamach do zapytań - wyniki naturalne im gorsze tym lepiej dla ich AdWords'a a co za tym idzie do ich zarobków ;) Wydaje mi się, że szukarka musi wykazać się przed akcjonariatem w końcówce roku ;) Najlepsze co możemy zrobić to przestać używać Google w ramach protestu - tylko to trzeba masowo :) ... ja dziś jeszcze nie używałem i systemy monitorujące już wyłączyłem - jutro zaglądne na tą stronę Google - zobacze czy grafikę zmienili :)

 Szablony do zennopostera - ZenBLOG, ZenSocialBot, ZenOgłoszenia, Szeptacz, ZenFles, ZenReview, szablony do poczty i inne). Tylko profile VIP proszę zamawiać przez priv lub email

Odnośnik do komentarza
Udostępnij na innych stronach

Piszą o:

(...)

1. możliwości całkowitego zignorowania backlinków z SWLi (mniejsza z tym, w jaki sposób chcą je wykrywać i czy są w stanie to zrobić);

(...)

Wydaje mi się, że sposób wykrywania tego typu linków jest jedną z najistotniejszych kwestii w całym tym update. Bardzo by mnie interesowało czy niektóre serwisy, bardzo użyteczne poradniki niejednokrotnie są traktowane tak samo jak wygenerowany w 5sek. kontent tylko dlatego, że dajmy na to linkują do 5 innych stron, a "system" uznał je za SWL. Sporo tego typu serwisów mi poleciało ostatnio. A site straciłem na wszystkich.

Drugą kwestią jest obecny stand indeksów, który jest tragiczny. Mam to szczęście, że mierne strony wleciały dla haseł, dla których moje nie spadły, ale podchodząc uczciwie do tematu gdy widzę spamiarkę zajmującą pod moim top1 kolejne 3 miejsca, to wygląda to średnio. Update moim zdaniem ma charakter stały, ale pojawił się przy tym taki badziew w indeksie, że szkoda gadać. Sądzę, że wycinanie SWLi jest poważnym błędem jeśli idzie o dbanie o jakość indeksu. Co jak co, ale strony pozycjonowane SWLami były w większości reprezentatywne, a to co obecnie widzę dla niektórych haseł, to syf i malaria.

Nie mam nic przeciwko, żeby utrzymali obecne mechanizmy w mocy pod warunkiem, że znajdą się filtry na badziewie, które wypłynęło. Okazuje się, że strony nielinkowane SWL'em są w znacznej większości gorsze od tych co poleciały za używanie SWL (zakładając, że spadki miały związek tylko i wyłącznie z tym).

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wiem czy to działa od dawna ale dzisiaj widzę na niektóre frazy linki sponsorowane pod TOP10. Reasumując, wyniki o które tak "dba" g., żeby były naturalne i cudowne są dla nich tylko dodatkiem do reklam. Na jednej frazie z pierwszej strony wychodzi 10 organiczne, 10 mapka, 3 spons. góra, 3 spons. dół, 8 spons. prawy panel. Tak działać może tylko monopolista.

E: od kilku godzin robię przegląd serp na kilkaset fraz i widzę, że już w kilkunastu przypadkach na różnych stronach i podstronach mam tytuły podstron sprzed ok... 2 lat. Czyli jakieś bazy im poszły i próbują odtwarzać ale żeby aż taką prehistorię przywoływać? Nieźle.

Odnośnik do komentarza
Udostępnij na innych stronach

U mnie powoli pozycje idą do góry, czyli tak jakby wracają na swoje stare miejsca w top10 ;)

Tak jak pisałem wcześniej mam wrażenie, że Google na nowo zaczęło przeliczać linki. Kwestią przypadku było, że jakieś wpisy czy słabe zaplecza poszły do góry - bo tu linki zostały zliczone jako pierwsze(powtarzam po prostu przypadek).

Bo co zauważyłem? - Wpisy i zaplecza na niektóre frazy poleciały znowu w dół na przełomie kilku ostatnich dni, na ich miejsca zaczęły wchodzić znowu normalne firmowe i branżowe strony, w tym i moje.

Na potwierdzenie tej tezy - pisałem też kilka postów wcześniej, że gwałtowne dopalenie linkami(rotacyjne swl) jest w stanie na dzień dziś wybić trudniejsze frazy na wysokie pozycje. Ja w tym celu użyłem SWL i powiem ,że jestem pod wrażeniem. Tłumaczę to podobnie jak wyżej. Google nie zdążyło zliczyć wszystkich linków konkurencji, a ja dopalając rotacyjnymi zdobywam ich więcej dla siebie, niż linki, które zostały do zliczenia wyszukiwarce u konkurencji. Oczywiście kwestią czasu jest jak Google zliczy linki konkurencji do końca i siłą rzeczy konkurencja mnie wyprze na niższe pozycje.

Mam nadzieje, że nie zamąciłem, ale tak to właśnie widzę.

Agencja SEO z Katowic Intoseo - Pozycjonowanie Katowice
Wynajem myjek przemysłowych i warsztatowych - www.myjki360.pl

Dywaniki samochodowe https://topdywaniki.pl/

Odnośnik do komentarza
Udostępnij na innych stronach

mmr88 dobrze piszesz, od paru dni coraz bardziej sie przekonuje do tej teorii ze google od nowa zaczyna sobie tworzyc baze linkow. Strony zaczynaja mi powoli isc do gory. Byc moze to nie byl blad googla i to cale zamieszanie bylo celowe. A ma ono na celu wylapanie stron ktore byly dopalane linkami rotacyjnymi. Z tydzien, dwa i powinno mniej wiecej powrocic do stanu sprzed zamieszania. Mniej wiecej bo moim zdaniem stronom dopalonym rotacyjnymi ciezko bedzie odzyskac/utrzymac pozycje.

Odnośnik do komentarza
Udostępnij na innych stronach

Ktos tutaj juz wspominal o tym nowym systemie Google co sie nazywa jakos na 'P'. Google sie chwalilo, ze wczesniej wszystkie serwery zbieraly dane i slaly je do jednego i on robil update - dlatego trzeba bylo czekac tyle na update, a teraz ma on byc blyskawiczny, bo kazdy serwer robi to na wlasna reke.

Wydaje mi sie, ze wlasnie w tym moze byc problem, ze zaden z tych serwerow nie ma zebranych w komplecie wszystkich informacji, bo zawsze one splywaly z kilku. Teraz kazdy z nich przetwarza sobie to co, znajdzie i w miare im wiecej odnajduje tym pozycje ida w gore.

To by tez potwierdzalo czemu czesc poszla w dol, a czesc w gore. Po prostu niektorzy mieli farta i po przejsciu na nowy system dany serwer mial wiecej informacji o linkach do jego strony niz do innej, ktora byla nawet silniej linkowana. Teraz powoli serwery sie rozkrecaja i pozbieraja sobie brakujace dane.

kodeks-logo-baner-pio.jpg

Blog z informacjami o prawnych aspektach związanych z funkcjonowaniem internetu, w tym problematyka dotycząca SEM i SEO. organisciak.pl

Odnośnik do komentarza
Udostępnij na innych stronach

popatrzcie sobie na GWT jest tam dużo pożytecznych nowych rzeczy, i google ujawnia nowe informacje na temat tego co wie o naszych stronach. Co prawda z aktualnością stron z których pochodzą linki jest różnie, ale mam taką swoją teorie - że może google za linki które już nie istnieją na jakiś stronach, a dajmy na to istniały przez rok - dwa też daję punkty. Wszak jeśli dysponuje tymi informacjami, to jakość takiej danej też ma pewne znaczenie - ująć linki do danej strony na przestrzeni kilku lat, a nie tylko w dniu dzisiejszym, może to daje im lepsze wyniki.

Odnośnik do komentarza
Udostępnij na innych stronach

Przeczytajcie ze zrozumieniem: https://www.theregister.co.uk/2010/09/24/google_percolator/

Percolator slashes this delay by providing random access to the existing multi-petabyte index, letting Google make updates without reprocessing the entire repository. "Random access allows us to process documents individually, avoiding the global scans of the repository that MapReduce requires," the paper says.
Dalej ktoś ma wątpliwości że użyli randa :)

Tak wiem że chodzi o losowy dostęp do danych bez konieczności przetwarzania całej bazy, a nie rand wyników wyszukiwania :P Analizując sobie to wszystko na chłopski rozum to nie ma prawa to działać poprawnie. Tak naprawdę nigdy nie będą mieli wszystkich linków prowadzących do danej strony. Do tej pory też nie mieli, ale przynajmniej był czas w którym zbierali wszystko do kupy co do tej pory zostało zaindeksowane i przetwarzali serpy. Ciekaw jestem jak to teraz technicznie rozwiązali żeby poprawnie działało. Bardzo bym chciał przeczytać artykuł z tej konferencji. Z pewnością było by tam więcej ciekawych szczegółów, bo techniczne rozwiązanie pewnych problemów związane z poprawnością takiego podejścia do przetwarzania może być trudne...

Edyta: Znalazłem oryginalny artykuł: https://static.googleusercontent.com/extern...chive/36726.pdf

Edyta 2: Przebrnąłem przez ciekawsze części tego artykułu i łączenie tego zamieszania z Percolator nie ma najmniejszego sensu. Ten algorytm działa już od jakiegoś czasu. Jedyne co mogli to teraz wprowadzić jakieś zmiany, które umożliwiły im w teorii wykrywanie jakichś nienaturalności linkowania. O ile w poprzednim algorytmie było to bardo trudne i znacząco zwiększyło by im obciążenie serwera o tyle w tym z tego co widzę jest to bardzo możliwe ze względu na całkiem inną technologię przetwarzania zaindeksowanych stron. Ja jednak obecnie obstawiam jakiś grubszy błąd w algorytmie/bazie danych.

Odnośnik do komentarza
Udostępnij na innych stronach

mi się cofnęły info w narzędziach google do 10.10.2010 przez niektórych śmieszne nazywanym dniem końca swl :)

jak dla mnie straszny niewypał googla i teraz muszą sie wynieść ponad swoją dumę i przywrócić co było dawniej i testować perkolatora gdzieś z boku, aż zacznie dawać miarodajne wyniki

Najlepszy portal branży gier liczbowych Lotto to: Wyniki Lotto NET

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności