Skocz do zawartości

Przepowiednie - Jak skończy się era Precelków ?


Rekomendowane odpowiedzi

Wszytskim cyztajacym takie watki chialem wyjasnić:

Jak mam czas i robie zpalecz ei ejst super unikalne, amskowane linkowanie tak z enikt mi ich nie sprawdzi itp i ma mega moc i zdobywam super tajna fraze i firma mi placi od dzis przez 2lata po kilka stow miesiecznie za to ostatnia rzecza jaka robie to opisujemoje metody na forum ;)

Stad wniosek - wszystkie opisywane zapleczowe systemy na forum sa stare albo teoretyczne ;)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 68
  • Dodano
  • Ostatniej odpowiedzi
Stad wniosek - wszystkie opisywane zapleczowe systemy na forum sa stare albo teoretyczne

NO nie do końca czasem ktoś rzuci parę mądrych zdań, ale nikt nie da rozwiązania na tacy. Po to każdy ma głowę żeby myślała ;) a w seo jest to jak najbardziej niezbędne.

Katalogi sami zajechaliście i preselle też sami zajedziecie jak ktoś już tu mądrze napisał.

Odnośnik do komentarza
Udostępnij na innych stronach

Do wszystkich, którzy chwalą moc katalogów - proszę o przykłady, a nie gadanie "katalogi nadal pięknie działają", "trzeba to robić z głową" albo inne tego typu frazesy. Cóż takiego niesamowitego można zrobić dodając stronę do katalogów? Zmienne anchory? Inny tekst? Dodawać do moderowanych katalogów? Przecież to jasne i od dawien dawna stosowane. Ktoś może jeszcze powiedzieć, żeby podlinkowywać wpisy. I co jeszcze? Cyba, że jest mowa o wprowadzeniu średnio łatwej frazy na 2 lub 3 podstronę, ale ja tego nie nazywam pozycjonowaniem.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja osobiście uważam, że z katalogami da się naprawdę wiele zdziałać i to nawet niekoniecznie dla średnio trudnych fraz. Ale oprócz tego optymalizacja strony i cierpliwość, a raczej ... bardzo dużo cierpliwości. Strona pierwsza w wynikach około po 4-5 miesiącach na trudniejsze frazy. Oczywiście nie w każdym przypadku to się uda, jeśli pozostałe strony wypozycjonowane czymś bardziej wartościowym, to może być raczej ciężko...

Skuteczne pozycjonowanie stron www | Nowe randki internetowe

Odnośnik do komentarza
Udostępnij na innych stronach

Yeden leniwi do czasu jak ktoś napisze dodawarkę i wtedy wszyscy będą jeżdzić po tych presellach dodająć tam wszystko co tylko mają tzn zaplecze, klientów, podstrony serwisów itp przez co bazy znów rozrosną się do kilkudziesięciu tysięcy podstron i znów zanim bot odwiedzi Twój link miną miesiące...

Odpowiadając na pytanie:

Mam na myśli tych którzy pozycjonują tylko katalogami i oczywiscie spamerów potrafiących dodawać po parę kilo domen na dobę.

Odnośnik do komentarza
Udostępnij na innych stronach

[...] do czasu jak ktoś napisze dodawarkę i wtedy wszyscy będą jeżdzić po tych presellach dodająć tam wszystko co tylko mają [...]

Tak jak przy katalogach... może być wartościowy katalog albo pospolity śmieć... Jeżeli pozwoli się, aby dodawarki dodawały byle co, to nie dziwota, że powstanie kolejna strona-śmieć z masą zduplikowanych artykułów, która nic sobą nie reprezentuje, ani nie ma znaczenia przy optymalizacji stron...

Odnośnik do komentarza
Udostępnij na innych stronach

Tak jak przy katalogach... może być wartościowy katalog albo pospolity śmieć... Jeżeli pozwoli się, aby dodawarki dodawały byle co, to nie dziwota, że powstanie kolejna strona-śmieć z masą zduplikowanych artykułów, która nic sobą nie reprezentuje, ani nie ma znaczenia przy optymalizacji stron...

Uprawdopodobnij choć, ze ostatnie Twoje twierdzenie jest prawdziwe. Link znaleziony przez robota internetowego w katalogu zaspamowanym przez dodawarki ma taką samą wartość jak link, tez znaleziony przez robota, na stronie rozprawy, która otrzymała Nobla. Zakładając oczywiście ze obie strony maja ten sam PR, są poprawnie skonsturowane itp. Link to link. Google rozpoznaje linki, a wartosć strony określa po linkach. Nie po treści. Google nie jest sztuczną inteligencją, google nie rozumie treści strony. Dla google link z katalogu, który spełnia wymagania co do konstrukcji strony i jej podlinkowania jest więcej wart niż link ze strony z najpiękniejszym wierszem w historii ludzkości, która jest źle podlinkowana i źle skonstruowana.

GOOGLE JEST GŁUPIE! YAHOO JEST GŁUPIE! LIVE JEST GŁUPIE! Więcej, google jest najgłupszą z tych wyszukiwarek, więc najrzadziej się myli.

Odnośnik do komentarza
Udostępnij na innych stronach

GOOGLE JEST GŁUPIE! YAHOO JEST GŁUPIE! LIVE JEST GŁUPIE! Więcej, google jest najgłupszą z tych wyszukiwarek, więc najrzadziej się myli.

Google nie jest głupie. Stoi tylko przed problemem skali. Da się stworzyć przecież algorytm z jakimś rodzajem sztucznej inteligencji, który by analizował strony pod różnymi kątami. Inżynierowie googli nie zrobili tego dla tego, że nie umieją albo że im się nie chce (spójrzcie na nazwiska jakie tam pracują!). Problem w tym, że kiedy taką analizę musisz przeprowadzić dla miliardów stron, to okazuje się nagle np brakuje ci nie serwerów, ale prądu. Jeśli popatrzeć na naprawdę gigantyczną ilość danych jakie google na codzień przetwarza (a wyniki wyglądają często nawet sensownie;)) i odpowiada na zapytanie w ciągu ułamków sekund, to naprawdę trudno nazwać coś takiego głupim. Mnie raczej to imponuje pod względem inżynieryjnym..

Warto się czasem zainteresować matematyką na poziomie wyższym niż gimnazjum. Gdyby wszystkie bany, filtry czy jak to zwał były nakładane ręcznie to potrzebna byłaby wielka armia klikaczy do ustalania wyników, co się zwyczajnie nie opłaca. Zastanów się jaka jest ilość fraz, na które ludzie pozycjonują czy stawiają spamy w Polsce a potem pomyśl jak małym rynkiem jesteśmy w porównaniu z np USA. Pewnych rzeczy "nie da się zrobić" ręcznie, pewnych się nie da z automatu. Oczywiście takie rozwiązania są możliwie, jednak gdy doda się do matematyki np trochę wiedzy z ekonomi czy statystyki, okaże się że opłacalna jest tylko jedna z opcji.

Odnośnik do komentarza
Udostępnij na innych stronach

Gdyby wszystkie bany, filtry czy jak to zwał były nakładane ręcznie to potrzebna byłaby wielka armia klikaczy do ustalania wyników.

A moim zdaniem wcale nie aż taka wielka. Ile fraz byłbyś w stanie przeczyścić przez 8 h (dobrze płatnej) pracy? :placze: I zrobią to, bo nikt się tego nie spodziewa. O ile już nie zrobili.

Program partnerski na Twoje katalogi i precle! Nawet 20% prowizji!
Odnośnik do komentarza
Udostępnij na innych stronach

corvvin - Algorytm googla jest głupi, dokładnie tak samo jak głupi jest Cray, Deep Blue, czy maszynka na której piszę ten post. Co więcej - algorytm googla jest bardzo prosty - nieprecyzyjnie napisałem, ze algorytm google jest głupszy od algorytmu yahoo. Powinno być - prostszy. Do opanowania algorytmu google potrzebna jest umiejętność dodawania, mnożenia i stosowania funkcji. Z tego co się orientuję jest to teraz poziom gimnazjum.

Ban - czyli usunięcie strony z indeksu google - jest nakładany ręcznie. Wcale nie potrzeba do tego armii ludzi, bo nie trzeba sprawdzić wszystkich stron. Wystarczy sprawdzić kilkadziesiąt pierwszych stron na kilkaset popularnych fraz. Oraz strony z AdSense. Nawet kiedyś na tym forum zostało to dokładnie opisane jak działa taka ekipa banująca strony.

Filtrów nie ma. Nie są ani przyznawane ręcznie, ani algorytmem. Bonusów też nie ma. Sprecyzuje - filtr w rozumieniu w jakim pojawia się na tym forum, czyli + lub - do pozycji w serpach.

Odnośnik do komentarza
Udostępnij na innych stronach

Filtrów nie ma.

Wiele masz racji ale tu się akurat mylisz....

Zaufaj mi myślenie jakie w tej chwili reprezetujesz w seo Cię za daleko nie zaprowadzi.

Fakt Google jest głupie bo to algorytm nie myśli, ale wierz mi ten algorytm jest nie co bardziej skomplikowany niż Ci się zdaje.

To taki off top.

Katalogi wartościowe są więcej warte od spamerskich z tego względu że masz większe prawdopodobieństwo, że Twój link zostanie zaindeksowany i pozostanie windeksie, bo nie zostanie wyrzucony ze względu na Duplicate content ani domena na której stoi nie wyleci z indeksu.

A co wartości linku to patrząc globalnie link to link i Amen

Odnośnik do komentarza
Udostępnij na innych stronach

największym problemem tych precli jest jedna rzecz - darmowy skrypt, który wszyscy znają. Więc obczaić co i jak w nim działa to nie problem aby napisać dodawarkę.

Dlatego nie ma to jak własny skrypt, który robi takie "serwisy". Unikatowy i nikt go Wam nie zaśmieci automatami :placze:.

blog o apple | highlab.pl - blog technologiczny

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności