Skocz do zawartości

Google Update: Frazy Mocno Spamowane


kpt.nemo

Rekomendowane odpowiedzi

  • Odpowiedzi 630
  • Dodano
  • Ostatniej odpowiedzi

Przestańcie już bredzić. Słońce w końcu wyszło, może trzeba czymś głowę nakryć?

Potem ta postać porównywana jest z innymi wpisami w cache.

Zastanów się ile podstron średnio ma jedna strona. 100, 1000? Dla każdej takiej podstrony musiałby być zrobiony taki cache i porównany z każdą podstroną innych serwisów. KAŻDA PODSTRONA Z KAŻDĄ PODSTRONĄ. Nie będę nawet próbował tego liczyć, bo jest to liczba kilkunastokrotnie większa od nieskończoności :)

"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Odnośnik do komentarza
Udostępnij na innych stronach

@Radek obrosłes w pióra, że hoho,

nie czytałem do końca twojego posta, stąd nie wiem czy była mowa o zabezpieczeniu konkurencji. Google z apriorytet uwaza sobie postronnych ludzi na co M sciemniacz zawsze zwraca uwage. Z 301 walczyli od niepamietnych czasow i nadal dziala, jedynie czasem zeby ud***c konkurencj enalezy mocno cisnac i czekac na to az w koncu profil linkowania "jebutnie".

Jesli Twoje sieci neuronowe mają zastapic profil linkowania to poslucham w jaki sposob google zabezpieczy np. Twoje strony.

Jeszcze zerknalem okiem na Twoje wypociny i nie znalazlem ani slowa o zabezpieczeniu osob trzecich.

Postaraj sie to opisac w kilku zdaniach zanim wysiadiesz z pociagu...

O_o

Odnośnik do komentarza
Udostępnij na innych stronach

Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache). Potem ta postać porównywana jest z innymi wpisami w cache. Zatem działa to jako standardowy search po bazie a to Google ma opracowane do perfekcji. Może teraz zrozumiecie że nie wymaga to mega mocy przeliczeniowych.

Pozdrawiam z pociągu powrotnego z Katowic

Impreza była super.

Hmm, na pierwszy rzut oka rzeczywiście wygląda to bardzo nieprawdopodobnie, złożoność operacji, konieczność angażowania kosmicznych mocy obliczeniowych, ale jeśli...

...jeśli coś podobnego wdrożono, to z pewnością w oparciu o działający od dawna mechanizm wyszukiwania Duplicate Content. A działa on z grubsza tak:

A) Podczas indeksacji ustalane są najważniejsze dla bieżącego dokumentu słowa kluczowe i frazy.

B) Każde z tych słów i fraz ma unikalną wartość liczbową (haszowanie). Następnie liczy się z nich, według założonego algorytmu, jakąś sumującą wartość (być może jest to wielowymiarowy wektor), która jest zapisywana w hash table. Wartość ta skorelowana jest z adresem url.

C) Teraz wystarczy podczas indeksacji innej strony lub podczas wyliczania rankingu dla wstępnie wybranego zestawu stron, porównać czy wyliczona "hash-wartość" występuje już w tabeli. Jeśli tak, mamy DC. (pewnie zakłada się jakieś marginesy błędu itp.).

Hmm, jeśli opracowano jakikolwiek mechanizm "desynonimizacji", wystarczy wpiąć go pomiędzy A i B... reszta jest prosta.

Ale i tak najbardziej przemawia do mnie analiza struktury linków wychodzących. Reszta tak sobie.

Latent Semantic Engineering

Odnośnik do komentarza
Udostępnij na innych stronach

Uwielbiam ludzi takich jak Radek, którzy z jednej strony zgadzają się, że update się jeszcze na dobre nie zaczął, lub ciągle trwa, a już ma gotowe rozwiązania. Czekamy na kolejne szkolenia i książki, nie zapomnij o nich napisać w każdym możliwym wątku i za każdym razem jak się tylko udzielasz :)

Odnośnik do komentarza
Udostępnij na innych stronach

Porównywaniem stron o skopiowanej tresci zajmuje sie juz od dluższego czasu Panda, a musi wykonac podobną ilość operacji. Może już ja nawet zintegrowali z wyszukiwarka.

Jaką podobną ilość operacji ? Porównanie ŻYWCEM PARSOWANYCH TREŚCI ma sie nijak do desynonimizacji o której pisze Radek:

"Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache)."

Chodzi bowiem o to ile roboty musiałby wykonać pracy przy samej desynonimizacji. Mieląc sajty po 500k jednej z 50 subdomen domeny... No naprawdę ciemno to widzę :D

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

@szfab

Przecież wiesz że wielu ludzi z BHS dziś pcha z premedytacją konkurencję w Pingwina nie udawaj blondynki. Nie nie ma mechanizmu zabezpieczającego przed tym tak jak nie ma mechanizmu zabezpieczającego przed wepchnięciem konkurencji w Pingwina przez rozwalenie profilu linków. Opisany mechanizm nie jest zamiast profilu linków a jest uzupełnieniem i rozwinięciem tej koncepcji.

logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności