Skocz do zawartości

link na forum są ok?


.::JARO::.

Rekomendowane odpowiedzi

  • Odpowiedzi 39
  • Dodano
  • Ostatniej odpowiedzi

Jak mozna zaufac hostingowi, jezeli na stronie glownej dwie z trzech nazw pakietow sa napisane z bledem?

Ja calkowicie nie rozumiem takich glupich bledow.

P.S. ja zainstaluje u sibie 5 botow i one razem beda zer soba gadaly.

Po co mi userzy :)

Odnośnik do komentarza
Udostępnij na innych stronach

a ja się znam mniej niż na początku :-).

Jak zaczełem czytać ;-) to przestałem się znać więc polecam testować własne rozwiązania.

A na poważnie - to linki niebawem na forum nie będą OK :-) bo google ma wyłapywać linki z for, blogów, ksiąg gości, rotatory itd.

Odnośnik do komentarza
Udostępnij na innych stronach

Mariusz, rozumiem ze pod stwierdzeniem

bo google ma wyłapywać linki

kryje sie jakas kara lub brak wplywu na ranking i pod okresleniem

rotatory itd.

kryje sie coop, linkor itd.

Tak to rozumiem i nie wiem dlaczego tak uwazasz, ale jak moglbys mi podac jakies wiarygodne zrodla ze maja zamiar cos takiego wprowadzic to bardzo prosze. Patentu Google nie uwazam za wiarygodne zrodlo o zamiarach wprowadzeniu czegos, gdyz patentow maja setki jak nie tysiace, po prostu chlopaki lubia patentowac rozne rzeczy. :D

Jezeli chodzi o *wylapywanie linkow* z systemow rotacyjnych to jest to tak samo (o ile nie bardziej) trudne jak wylapywanie linkow z for, blogow i ksiag gosci. Jakos im sie nie udalo ich *wylapywac* i dlatego wprowadzili rel=nofollow majac nadzieje, ze webmasterzy zaczna z tego korzystac...

Odnośnik do komentarza
Udostępnij na innych stronach

zapewne już stosują,ja michale nie mówię że coś jest łatwe, bo powiem że nawet nie bardzo wiem jak to analizować.

Chyba że np. taki prosty filtr w Google - to tylko moja wyobraźnia:

Ja bym zbudował to tak:

Idzie Googlebot spotyka linki lecz robi im no fallow - wszystkim wychodzącym, zapamiętuje je lecz ich nie zalicza, idzie 2 raz dajmy w odstępie czasu jakimś 30 sek. 6 godzin może 7 dni - jeżeli widzi te same linki to je wtedy indeksuje, jeżeli są inne to znowu robi w historii zamiane i sprawdza czy nasepnym razem one są, jak niema to też nie indeksuje.

Aż do sytuacji kiedy linki są stałe - np. przyszedł raz, 2, i były to indeksuje, lecz jeżeli znowu ich niema za 3 razem to je wywala.

Jakoś tak - nie wydaje mi się to trudne do wykonania - poprostu algorytm musiałby porównywać stronę na przełomie np. 10 reindeksów i sprawdzać historie linków wychodzących.

Uważam że o tyle jakaś historia tam jest tych linków bo na bazie tej historii oblicza Page Rank - w sytuacji zliczania PR bez historii okazałoby się że wszystkie strony winne mieć PR 10 które się rotują bowiem na koniec każda podstrona kiedyś tam linkowała do innej.

A PR nie jest zliczany w jeden dzień tylko podczas indeksowania wszystkich dokumentów.

Być może zliczany i nadawany jest co reindeks całej bazy Google - tj wszystkich zaindeksowanych stron,podstron itd a może nawet o kilka tych reindeksów z czego wyliczana jest średnia i nadawany PR.

Wydłużający się czas przydzielania PR sugerowałby takie coś, bowiem duży przyrost stron - stały bardzo dynamiczny ich wzrost jakby nie pozwala zakończyć algorytmowi PR wyliczeń, bowiem np. z dnia na dzień dochodzi więcej stron niż algorytm PR jest wstanie przeliczyć.

To tylko moja teoria historii linków,PR itd. i wcale nie mówię że tak jest a jedynie zaczynam takie rozwiązania analizować

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności