Skocz do zawartości

Propozycja - przykłady "złego linkowania"


Beerbant

Rekomendowane odpowiedzi

Panowie, o tych sieciach to widzę z motyką na słoń..ce ? :D

Zmiana jednego parametru wiąże sie ze znaczącą zmianą na wyjściu(błąd w 1 neuronie to wprost proporcjonalny błąd na wyjściu x każdy neuron). Można tylko symulować(tak jak my tutaj na pio :D

Google oczywiście może opierać się na sieciach, ale nie znając % udzialu poszczególnych czynników nie da się nawet w miare sensownym przybliżeniu zasymulować bota goglowskiego.

Mając np. 5 danych - jasne, ale nie jeśli jest ich 500...

[edit] Kmlody - oczywiście że się mylę, przecież to była ironia :D

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 51
  • Dodano
  • Ostatniej odpowiedzi

jesteś na takiej półce która nie odróżnia likieru od lakieru :D

Sorry ale rzeczywiście nie ta półka, poniżej pewnego poziomu to mi się już dyskutować nie chce.

EOT

"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Odnośnik do komentarza
Udostępnij na innych stronach

Powiedzmy, narzędzie analizujące profil linków i inne parametry wybranych (cudzych) witryn na wybrane frazy. Domeny z krótszym stażem, z dłuższym itp. Taki monitor np. bazy 1000 witryn. Wówczas wyniki mogłyby być miarodajne.

Ci, którzy mają własne zaplecza i arkusz excela ;), już od dawna korzystają z własnych analiz parametrów po spadkach przy updateach G. :)

Odnośnik do komentarza
Udostępnij na innych stronach

Sorry ale to zbyt dużo, równanie z 1 niewiadomą jest proste

równanie z 2 niewiadomymi trudniejsze, z 20 jest niemożliwe do ogarnięcia, chyba że ktoś zdradzi ci choć część algorytmu.

Przypomina mi to średniowieczne palenie czarownic, które leczyło zarazę, spaliłeś jedną, zaraza nie ustępowała, paliłeś kolejną znowu nie, w końcu po spaleniu entej zaraza ustępowała, wyczerpywała się populacja podatnych ludzi. Wniosek palenie czarownic pomaga na zarazę, trzeba tylko znaleźć tę która rzuciła urok.

O to właśnie chodzi w sieciach neuronowych, że masz "czarną skrzynkę", która sama "odgaduje" wzór na podstawie odpowiednio spreparowanego zestawu uczącego (i to tu jest główna trudność + przygotowanie odpowiedniego modelu sieci (od biedy można przetestować kilka wariantów dla tych samych danych)). Nie musisz ręcznie rozwiązywać układów równań i o to w tym chodzi.

Porównanie do palenia czarownic do mnie nie trafia.

Aby zastosować sieć neuronową do czarownic musiałbyś:

1. Określić dwie interesujące Cię klasy, czyli: zarażonych i niezarażonych (co nawet w średniowieczu było możliwe przy dobrej woli - Kazimierz Wielki wprowadzał kwarantannę na granicy dla przyjezdnych - mądry chłop!)!.

2. Mieć dostatecznie dużą ilość reprezentantów z danej populacji, z których część należy do jednej klasy, a część do drugiej.

3. Zaprojektować sieć neuronową, sparametryzować osobników (czarownica/nieczarownica, płeć, waga, wzrost, objawy i cokolwiek innego, co Twoim zdaniem może być czynnikiem decyzyjnym).

4. Nauczyć sieć podając na jej wejściu wektory danych z parametrami osobników i konfrontując wynik klasyfikacji sieci z oczekiwanym (zainfekowany/czysty).

5. Przeprowadzić test na grupie osobników, których sieć nie widziała w trakcie nauki.

I co by się okazało? Że sieć daje dla osobników testowych odpowiedź typu: na 50% jest chory lub na 50% zdrowy. Jaki z tego wniosek? A na przykład taki, że okazałoby się, że parametry zostały źle dobrane (lub model sieci).

Co więcej, w zasadzie samo uczenie już by się mogło niepowieść - błąd sieci szacowany w trakcie nauki nie zbiegałby się do 0!

Co za tym idzie, sieć neuronowa pokazałaby, że w ten sposób nie można dokonać klasyfikacji. Czyli nikt by nie spłonął na stosie.

Sieci neuronowe to czysta nauka - czerpią z biologii i opierają się na matematyce.

A średniowieczne myślenie, które przywołałeś opiera się na niewiedzy i bezpodstawnym domniemaniu.

Tak to widzę. :)

Natomiast zgadzam się, że im więcej parametrów, tym zadanie jest trudniejsze i bardziej podatne na zakłócenia. Wcale nie twierdzę, że projekt dla dużej liczby parametrów zakończyłby się powodzeniem. :)

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Aby złamać szyfr, a tym na dobrą sprawę jest algorytm musiałbyś mieć klucz, oraz olbrzymią moc obliczeniową, a to wszystko do następnej zmiany algo

Nie. To zupełnie inne problemy i inne metody stosuje się do łamania zabezpieczeń kryptograficznych, a inne do "rozpoznawania" ukrytych zależności. Zauważ też, że chcesz jedynie znaleźć "imitację" algorytmu, a nie go złamać - chcesz dostać sieć, która daje wyniki maksymalnie zbliżone do porządanych, ale nie idealne, bo to nie jest potrzebne.

W przypadku chęci roszyfrowania algorytmu rankingowania stron można przyjąć bardzo dużo założeń pozwalających ten problem uprościć.

Na przykład:

1. Możemy spokojnie przyjąć, że wynikiem działania algorytmu rankingującego dla danej strony na daną frazę jest liczba z przedziału <0; 1> (Gdzie 1 oznacza maksymalnie dobre dopasowanie, a 0 kompletny brak związku z frazą).

2. Na wejściu mamy wektor parametrów o stałej długości, możemy ustalić, w jakim zakresie będą się zmieniać poszczególne parametry.

3. Zmiana 1 bitu w ciągu wejściowym dla algorytmu szyfrującego daje KOMPLETNIE INNY wynik na wyjściu, w przypadku algorytmu rankingującego strony, mała zmiana na wejściu będzie prawie zawsze oznaczała małą zmianę wyniku - co pozwala w kolejnych iteracjach procesu uczenia sieci na jej "dostrajanie".

Zmierzam do tego, że przestrzeń danych wejściowych może zostać dość mocno uproszczona, poza tym nie chodzi o to, żeby przeczesać wszystkie możliwości brute-forcem - bo po co wtedy stosować sieć neuronową?

Oczywiście trzeba pamiętać, że sieci neuronowe też mają ograniczoną stosowalność! Do pewnych problemów nie warto ich wykorzystywać, bo są lepsze metody!

Powiem więcej, po dobrym nauczeniu sieci neuronowej można by było wykrywać moment, w którym następuje zmiana algorytmu (z dokładnością do tego, że moment ten jest rozmyty).

Oczywiście, duża ilość parametrów narzuca pewne ograniczenia, ale byłbym daleki od stwierdzenia już teraz, że to nie ma racji bytu.

Realne trudności to według mnie umiejętny dobór parametrów i danych wejściowych + fakt, że Google nieco inaczej patrzy na niektóre branże, jak również lubi stosować swoje "widzimisię".

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

jesteś na takiej półce która nie odróżnia likieru od lakieru :D

Sorry ale rzeczywiście nie ta półka, poniżej pewnego poziomu to mi się już dyskutować nie chce.

EOT

Mam takie pytanie, produkujesz miliony liniejek tekstu.

Nic z niego nie wynika, nie napisałeś jednej kostruktywnej wypowiedzi na forum.

Potrafisz tylko drwić i się wymodrzać.

Więc jeśli jesteś taki "Super pozycjoner" to pokaż nam wszytskim swoją domenę w Topie na frazy: pozycjonowamie, tworzenie stron, strony internetowe lub coś podobnego.

Jeśli takiej nie masz, to z tego co piszesz. Kup nową, podaj adres i wbij ją do topu.

Wtedy możemy zacząć rozmawiać merytorycznie. Bo narazie to jest one na poziomie chłopaczka z liceum, który przechwala się ile miał dziewczyn, a jest nadal prawiczkiem.

Bo Twoje zachowanie pasuje do powiedzenia "krowa, która dużo muczy, mało mleka daje" i tak jest z Tobą.

Ktoś zadaje pytanie, a Ty włączas swój bełkot, w którym wiesz najlepiej znasz cudowne metody. Algorytm Google masz w jednym palsu, itp.

Więc proszę CIe pokaż nam nie oświeconym jak topy robisz dla przynajmniej jednej strony. Nie chodzi mi o metody, bo rzecz jasna że to już tajemnica.

P.S.

Jak byś nie wiedział - forum jest do dzielenia się wiedzą a nie do ciągłej krytyki i sporów.

Odnośnik do komentarza
Udostępnij na innych stronach

Jak byś nie wiedział - forum jest do dzielenia się wiedzą

Yyyy chyba nie o tym forum piszesz? Pokaż mi jeden post na tym forum w którym ktoś podzielił się wiedzą. Wiedzą, nie bajkami.

to pokaż nam wszytskim

Ci co mają wiedzieć to wiedzą co robię i wybacz ale całą resztę mam w .... i nie mam zamiaru niczego pokazywać i udowadniać :D bo to nie przedszkole.

"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Odnośnik do komentarza
Udostępnij na innych stronach

Jak byś nie wiedział - forum jest do dzielenia się wiedzą

Yyyy chyba nie o tym forum piszesz? Pokaż mi jeden post na tym forum w którym ktoś podzielił się wiedzą. Wiedzą, nie bajkami.

to pokaż nam wszytskim

Ci co mają wiedzieć to wiedzą co robię i wybacz ale całą resztę mam w .... i nie mam zamiaru niczego pokazywać i udowadniać :D bo to nie przedszkole.

Nie będę wchodził z Tobą w polemikę. Nie było to moim celem.

Spodziewałem się takiej odpowiedzi.

Moja rada, jak nie masz nic do wniesienia do tematu to nie pisz po prostu - zaoszczędź innym czas.

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Koledzy, nie ma sensu aż tak "głęboko" wnikać w problem bo wiadomo, że im głębiej w las tym więcej ...... Moim zdaniem wystarczy kilka wspólnych faktorów aby wyłonić jakąś prawidłowość. Przecież wiadomo, że algo i ciągłe w nim grzebanie też skutkuje kupą błędów dzięki którym każdy może dostać po tyłku "odpryskami" .

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

W przypadku chęci roszyfrowania algorytmu rankingowania stron można przyjąć bardzo dużo założeń pozwalających ten problem uprościć.

Widzę, że wiesz o czym piszesz ale zapominasz o jednej sprawie. Otóż algorytm guglowy jest coraz bardziej stochastyczny ponieważ gugiel jeszcze nie radzi sobie zbyt dobrze co wszyscy widzą na własne oczy, jeszcze zbyt mało danych z disavow oraz innych źródeł ...

Odnoszę wrażenie, że kolejność niektórych wyników w G. są losowane z pewnej ograniczonej i wyselekcjonowanej puli, jednorazowo na ileś tygodni a w takiej sytuacji raczej sieci neuronowe nie pomogą, błąd będzie rozjeżdżał w różnych kierunkach zamiast dążyć do zera :(

Tutaj będą zaj...iste trzy linki...

Odnośnik do komentarza
Udostępnij na innych stronach

Przecież wiadomo, że algo i ciągłe w nim grzebanie też skutkuje kupą błędów dzięki którym każdy może dostać po tyłku "odpryskami" .

Ja wiem kto ma wiedze o tych odpryskach ale obawiam się, że nie spodoba Ci się moja odpowiedź.

Agencja marketingowa Semgence istnieje na rynku od 2018 i odpowiada za prowadzenie działań SEO dla wielu firm małych i dużych. Prowadzimy też kampanie Google Ads - niedawno zostaliśmy sie Partnerem Google spełniając odpowiednie kryteria. Betapoint

 

 

Odnośnik do komentarza
Udostępnij na innych stronach

Nie pitol, dajesz ... :D

Przestałem olewać Skuteczne SEO . Zanim zapytasz gugla naucz się zadawać pytania ....

Moja  fotografia kulinarna  :D Jak Ciebie robią w ..... Wuja dowiesz się na seoinfo.edu.pl, Fu*k Google ......Ask me .... 

Odnośnik do komentarza
Udostępnij na innych stronach

W przypadku chęci roszyfrowania algorytmu rankingowania stron można przyjąć bardzo dużo założeń pozwalających ten problem uprościć.

Widzę, że wiesz o czym piszesz ale zapominasz o jednej sprawie. Otóż algorytm guglowy jest coraz bardziej stochastyczny ponieważ gugiel jeszcze nie radzi sobie zbyt dobrze co wszyscy widzą na własne oczy, jeszcze zbyt mało danych z disavow oraz innych źródeł ...

Odnoszę wrażenie, że kolejność niektórych wyników w G. są losowane z pewnej ograniczonej i wyselekcjonowanej puli, jednorazowo na ileś tygodni a w takiej sytuacji raczej sieci neuronowe nie pomogą, błąd będzie rozjeżdżał w różnych kierunkach zamiast dążyć do zera :(

Masz rację, to jedna z poważniejszych obaw. Nawet w ostatnich miesiącach było widać tendencję do "czyszczenia" pewnych fraz przez Google.

Bardzo trudno byłoby (a właściwie to by się nie dało) próbować "rozgryźć" algorytm na przykładzie frazy, dla której priorytetem Google jest zamrożenie wyników wyszukiwania lub nich nieustanna rotacja.

Pozdrawiam

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności