Skocz do zawartości

google pada


Daniel Kędzierski

Rekomendowane odpowiedzi

Kompletnie nie rozumiem skąd takie zamieszanie.

Normalna awaria. Zdarza się każdemu.

Stracimy pare $ no i co z tego. Na smalec na pewno starczy.

Nie oczekuję ,że google łaskawie napisze do mnie maila z przeprosinami bo trzeba znać swoje miejsce w szeregu, tym bardziej ,że jesteśmy tylko "polaczkami". Co Google i inne światowe korporacje dawały nam już wiele razy do zrozumienia.

Co do Szooka to jego teorie i analizy po prostu są niezrównane. Ten człowiek jest niedoceniony. Prawdziwy wizjoner. :crazy:

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 103
  • Dodano
  • Ostatniej odpowiedzi

Do kolegi wyzej:

Chcesz mi powiedziec ze przedstawienie dzialania modelu platnosci CPC to moj wymysl - to mysl tak dalej a inni beda placic mniej.

Zasada mojego wyliczenia jest prosta.

BOKS o CTR 4% i stawce ,30 daje zarobek 1,20 na 100 wysiwetlen boksu

BOKS o CTR 1% i stawce ,70 daje zarobek 0,70 na 100 wysiwetlen boksu.

W inetresie kazdego z systemow jest wiekszy zarobek to tez boks o wyzszym CTR jest wyzej.

Zdobywajac wysoki CTR i pchajac sie w wyniki wyszukiwania z boksem masz szanse ten CTR zatrzymac a konkurnet z boksem na boku juz nie.

I ty nawet jezeli dziennie zaplacisz wiecej to tylko dlatego ze bedziesz mial wiecej wejsc a konkurent zaplaci moze i mniej ale stosunek wjesc z boksu bedzie mial znacznie nizszy.

Ale masz prawo nie zgodzic sie ze mna, to moje rozwizanie na boksy i mi sie jakos sprawdza dla Ciebie to moze byc wizjonerstwo dla mnie to myslenie ekonomiczne i szukanie ekonomicznch rozwiazzan

tak jak napisalem nie robie krzyku a analizuje.

Nie chce tez studiowac oprogramowania serwerowego.

Nie robmy tez z pracownikow Google ludzi goru. I ludzi o najwybitniejszych zdolnosciach.

Mysle ze Polak potrafi i posadzili by tam Polakow to albo byu wszystko rozwalili albo zrobili jak powinni. To zart oczywiscie.

Tak czy tak napewno na wszystko jest jakies rozwiazanie.

A ja sobie tylko gdybam na temat google.

Widzisz jest wiele rzeczy prostych ktore mogloby zrobic google ale nie robi, jest pewno wiele wzgledow polityki firmy.

Pozatym gorsze wyniki na najpopularniejszych frazach to wieksza kasa z reklam.

Wiec w mysl tego mozna byloby zalozyc ze google powinno dbac tylko o wyniki na frazy trudne i malo komercyjne a wszystkie inne powinno mieszac jak teraz by zmuszac do zakupu adwords. To takze moje gdybanie.

Bo nie oszukujmy sie - ile to cudow musi byc by np wykosic systemy linkujace, wszlekiego rodzaju katalogi, szukarki z wynikow wyszukiwania,

Zaden cud wystarczyloby zliczanie ile urli wychodzacych jest z danej domeny i okreslenie jakiegos standardu jak spamlink.

Np domena posiada wiecej niz 200 roznych adresow zewnetrzynych to wartosc takich linkow jest pomijana i klopot rozwiazany.

To takze moje gdybanie.

Tak czy tak tego typu rozwiazania napewno zmnieszylyby popularnosci katalogow seofriendly itp cudow ktore sam tworze takze.

Ale pewno to tez nie jest osiagalne skoro google tego nie wprowadzilo o boscy inzynierowie tego nie zaprogramowali.

Ja wiem jedno gdyby chcieli wycieliby w pien wiele, ale nie chca bo po co!

Odnośnik do komentarza
Udostępnij na innych stronach

Zaden cud wystarczyloby zliczanie ile urli wychodzacych jest z danej domeny i okreslenie jakiegos standardu jak spamlink.

Np domena posiada wiecej niz 200 roznych adresow zewnetrzynych to wartosc takich linkow jest pomijana i klopot rozwiazany.

A tak nie jest? 20 różnych wielotematycznych linków wychodzących na jednej stronie ma wątpliwą efektywność, a co dopiero 200;-)

Poza tym, IMO jest coś takiego, jak liczba sumaryczna linków in/out na wszystkich podstronach w domenie i z tego jakoś obliczana waga całej domeny.

Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl.

obrazek.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Eddy na jednej DOMENIE nie stronie.

Mozna byloby calkowicei wykluczyc zliczanie takich linkow jezeli na danej domenie jest wiecej niz np 200 urli o innych adresach.(CALKOWICIE a wage calego serwisu zanizyc do MINIMUM tak aby tego typu strona nie miala okazji pojawic sie w wynikach wyszukiwania)

Obecnie tak nie jest stad skutecznosc systemow wymiany linkow.

Gdyby tak bylo Linkor, Linkuj nie dzialalby nigdy a katalogi stro nie bylby skuteczne.

Oczywiscie ilosc linkow uznawana za spamlink bylaby nie znana

Ale spokojnie mozna zalozyc ze neutralna domena

domena to dla mnie www.domena.pl

a strona to www.domena.pl ktora moze miec setki podstron i subdomen

tak czy tak dla mnie takie rzeczy jak 2000 urli statycznych swiadczy o nie naturalnosci serwisu

i gdyyby gooogle badalo ze z danej domeny wychodzxi wiecej niz 200 roznych URL to zaden system typu LINKOR nie byl skuteczny.

Gdyby google uznalo ze jezeli witryna ma 2000 podstron i np sa to strony statyczne to wiadomo ze nie sa naturalne bo naturalnie nie jestes wstanie zrobic 2000 html

Wiec wszystkoi jest do wykrycia

Odnośnik do komentarza
Udostępnij na innych stronach

To co z dużymi serwisami, wypieprzyć z indeksu?;-)

Wg mnie jest coś takiego, jak ratio obliczane z linków in/out w całej domenie i to jakoś określa moc domeny. Czyli zbyt niskie ratio (na niekorzyść link out) i strona ma mniejszą moc. CHOCIAŻ, coś takiego może istnieć, ale jako jeden z czynników do banowania domeny, a nie obliczania jej mocy.

Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl.

obrazek.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

Hm,

Duzy serwis

Czy zanim staly sie modne rewrirty nie istnialy duze serwisy ?

Korzystanie z rewritow to nie naturalne sugerowanie ze strony sa statyczne.

Wiec jezeli GG zaczeloby analizowac naturalnosc seriwsu wiadomobyloby ze serwisz 30 tys podstron ?=q to naturalna budowa

a serwis z 10 podstronami .html to takze naturalna budowa.

I nikt nie mowi o wykaszaniu duzych serwisow a jedynie o obnizaniu wartosci stron nie naturalnych a takie mozna uznac strony korzystajace z rewritow.

A kto mowi o wywalaniu ale jezeli serwis ma np 200 domen o innych URL to poco zliczac to jako LINKI.

Bardziej naturalnym jest jezeli na calej domenie jest np 30 linkow i wtedy zliczac takie linki.

Tak czy tak zafiltrowac mozna wiele i uwazam ze zaprzestanie zliczania linkow z danej domeny jezeli jest wiecej niz ilosc XXX bylaby dobryk kierunkiem i skutecznym a nie tylo zmniejszanie ratio.

Bo wlasnie dzieki zanizaniu takiego ratio ale jakies jest maja moc takie systemy jak linkuj czy linkor.

Rotio 0,001 x 50000 i jest ROTIO :-)

a tak byloby g..... ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

mam na mysli to ze takie ROTIO powinno wynosic ZERO.

Wtedy takie systemy nie mialyby prawa bytu jak i zadne katalogi bo niedawalyby zadnego efektu.

Tak wiecj Google moze tylko google nie chce.

Google wie od dawna co to SEO FRIENDLY Katalogi i jakby chcialo to by to przycielo i ograniczylo zasieg linkow tak samo zasieg systemow wzajemnej wymiany.

Odnośnik do komentarza
Udostępnij na innych stronach

Szook - Według twojego rozważania www.carisma.pl jest nie naturalną stroną :crazy: bo ma ok 4 tyś podstron statycznych.

I wiele innych.

Dla ciebie jest to wprowadzić tutaj zmianę i będzie super, gotowy przepis na szukarke, nie bierzesz pod uwagę tego jak bardzo skomplikowany to jest algorytm.

Zmiana w punkcie A (pomaga w punkcie A),ale może szkodzić w punkcie C,D,E,itd. algorytmu googla.

W skróci tutaj poprawiliśmy wyniki zmianą X, a w 10 innych miejscach spartaczyliśmy sprawę tą samą zmianą X.

Pozdrawiam

Bartek

Setia.pl - seo, marketing, optymalizacja, pozycjonowanie stron w wyszukiwarkach

Telefonia internetowa MyFon.pl

Odnośnik do komentarza
Udostępnij na innych stronach

SETIA jaka tam zmiana - zadna zmiana przeciez jeszcze 2 lata temu nie bylo mowyy o takiej ilosci serwisow z rewritami. Wiec co to za zmiana uznanie ze cos jest nie naturalne skoro nie jest. Pozatym skoro naturalnie algorytm inaczej indkesuje serwisy z dynamicznymi urlami to znaczy ze rewrity zakucaja jego naturalna prace a nie poprawiaja jego zalozenia.

A moze poprostu ilosc zaindeksowanych stron.

Np indkesuj max 200 podstron jezeli statyczne z danego serwisu i zadnych zmian nie wymaga. A jezeli dynamiczne to indkesuj naturalnie

Yeden hm, a czy naturalnosci linkow to wg Ciebie katalogi ??

tak wtedy wszystkie katalogi psu na bude i chyba o to chodzi jezeli chce sie miec dobre wyniki nie uwazasz ?

naturalny link to wtedy gdy ziutek xxx poleca ziutka xxx ale nie ze zaraz poleca z domeny 300 ziutkow xxx.

Pozatym czy gdzies jest napisane ze linki z katalogow musza byc wazne ?

tak przyjelismy MY ale dla dobra wynikow jakby google chcialo to by to ucielo.

Ja tylko gdybam ale jestem pewien ze narobili by wteyd zamieszania a nie takimi smiesznymi upodattami.

Odnośnik do komentarza
Udostępnij na innych stronach

Np indkesuj max 200 podstron jezeli statyczne z danego serwisu i zadnych zmian nie wymaga. A jezeli dynamiczne to indkesuj naturalnie

No i mamy drugi onet :crazy: oni mieli podobne pomysły.

Pozdrawiam

Bartek

Setia.pl - seo, marketing, optymalizacja, pozycjonowanie stron w wyszukiwarkach

Telefonia internetowa MyFon.pl

Odnośnik do komentarza
Udostępnij na innych stronach

oj wierz mi ze szybko by ludzie przywrocili naturalnie serwisy czyli dyanmiczne urle gdyby zauwazyli ze statyczne sie slabo indkesuja.

A moze juz pewna grupa ludzi zauwazyla co sie lepiej indeksuje ;-)

dla przykaldu

https://www.google.pl/search?hl=pl&q=site%3....webwweb.pl&lr=

i jakos google sobie radzi lepiej niz z nie jednym stat URL.

Tak wiec pomysl dobry i bardzo prawdopodobny bo naturalny.

Wiec jak widzisz webmasterzy wprowadzili rewrity bo te pozwalaly lep[iej indkesdowac gdyby rewrity zaczely szkodzic to szybko zaczeliby je usuwac.

Jesterm wiecej niz pewien ze google dzisiaj oglasza ze rewirty nie beda indkesowane a carisma nagle staje sie dynamiczna ;-)

Odnośnik do komentarza
Udostępnij na innych stronach

gdy ziutek xxx poleca ziutka xxx

Szook - widzę, że jesteś dzisiaj w formie jak za dawnych seoczasów. Zwracam tylko uwagę, że gdy zachodzi zalezność z cytatu, to mowa jest o autopromocji, a w kontekście seo - o linku wewnętrznym lub crosslinku. Chyba, że weźmiemy poprawkę na fakt, iż nie jednemu psu burek.

Tak z ciekawości - co aktualnie zamierzasz udowodnić :-) ? Słowo daję, uczciwie starałem się zapoznać z Twoimi poglądami (mam przerwę na kawusię), ale bez wsparcia autora - za cholerę ;-) Chyba za dużo czasu spędzasz z PHP - stąd wielowątkowość.

Na razie zgodzić się mogę jedynie z Twoim stwierdzeniem, dotyczącym lokalizacji miejsca, w którym nas Google ma, ale to już wałkowaliśmy wielokrotnie. Co do rewrite i alternatywnych metod - stanowią globalny standard. Nikt z tym wojować nie będzie.

Odnośnik do komentarza
Udostępnij na innych stronach

Kolacja staneła mi w gardle żeby przebrnąć ten wątek

O matko święta :D

Postanowiłem streścić wątek dla mniej wprawnych w czytaniu:)

................

Od Padu Googla do wielowątkowości stosowanej w oparciu o kalibracje analityczną ,sworznia prawej połowki osi mniemanlogi stosowanej do zastosowań mikrofazy w leczeniu stanów katatoni.

O matko świeta:)

Nie czytać tego :crazy:

Firmę w Polsce utrzymuje czynną od 1997 roku w Hamburgu od 2008 Roku więc nie robią na mnie wrażenia awatary i linki w stopce. Zajmuje się od zarania początków Black Hat Seo. Mam prawo do zapomnienia. Niech się firma Google zajmie sztuczną inteligencją zanim  Sam Altman ich wyprzedzi :) Moje stare konto https://www.forum.optymalizacja.com/profile/21-kill-bill/  :( boże jaki młody byłem i głupi. Wróciłem i wchodzę z drzwiami nie drzwiami.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności