Skocz do zawartości

Siła linków z zaplecza


Rekomendowane odpowiedzi

Jest taka sytuacja: mam wstepnie przygotowane mini zaplecze skladajace sie z kilku katalogow tematycznych. Kazdy katalog jest podlinkowany z kazdym innym katalogiem, ale bez wzajemnych linkow. KAzdy katalog bedzie dodawany do innych katalogow, aby rosly w siłe :rolleyes: Kazdy katalog ma jakas baze tresci w tematyce katalogu. Teraz pytanie: czy linki do stron pozycjonowanych umieszczane w tych katalogach bedą silniejsze jeśli:

1. w katalogach bedzie tylko po jednym linku wychodzacym do pozycjonowanej strony?

2. w katalogach bedzie tylko po kilka roznych linkow wychodzacych?

3. w katalogach bedzie duzo linkow wychodzacych do strony pozycjonowanej, nawet do podstron?

4. nie ma znaczenia ilosc linkow wychodzacych na ich moc?

Polecam: Selly: oprogramowanie sklepu internetowego - 99zł netto/mc

Odnośnik do komentarza
Udostępnij na innych stronach

Coraz częściej się słyszy, że siła katalogów będzie coraz słabsza. Podejrzewam, że powoli zaczyna się czas tworzenia zaplecza z konkretną treścią. Zresztą to już zaczęło się lata temu. Ale to tylko moja opinia i niektórzy się mogą ze mną nie zgodzić :P

Blog - marketing internetowy, reklama w wyszukiwarkach, SEO, SEM, Usability

Darmowe kursy do pobrania: Google AdWords, zaktualizowany kurs Google Analytics

Odnośnik do komentarza
Udostępnij na innych stronach

mariolosek: zgadzam się z Tobą, dlatego moje tworzone obecnie zaplecze ton nie czysty katalog, ale takze teksty związane z tematyka katalogu. Np. tworze katalog o programach partnerskich to oprocz samego katalogu bedzie takze sporo stron z opisami programow partnerskich. Niebawem zapodam linki do tych katalogow w dziale KATALOGI :P

Polecam: Selly: oprogramowanie sklepu internetowego - 99zł netto/mc

Odnośnik do komentarza
Udostępnij na innych stronach

Kocham te teorie na temat katalogów :lol2:

No dobra chłopaki to teraz "oświećcie" mnie jak G rozpoznaje, że ta strona to katalog, ta to kopia dmoza ta to rssowy śmietnik a ta to porządny site.

Konia z rzędem dla Tego, który mi wyjaśni tą niepojętą dla mnie zasade działania algorytmu Google :P

Odnośnik do komentarza
Udostępnij na innych stronach

Generalnie można by zastosować sieci neuronowe, podawać na wejściu parametry określające układ strony itd, jeżeli skarmić jej odpowiednia ilość, odpowiednio przygotowanych danych, rezultaty wykrywania farm, katalogów i podobnych śmietników powinny być dobre. Oczywiście potrzebna jest olbrzymia moc obliczeniowa, już teraz DC budują obok elektrowni atomowych :lol2:.

Ale jak wiemy Google dopiero nie tak dawno nauczył się interpretować java scripts co dopiero cieci neuronowe.

IMHO Google dydukuje na podstawie swoich indeksów, wprowadzając bardziej skomplikowane algorytmy ich przetwarzania, więc wykrywa śmietniki na ich podstawie.

A jakiego dajesz konia? :P

Odnośnik do komentarza
Udostępnij na innych stronach

Nimek może porównuje kod...? kod qlwebów jest raczej mocno zblizony wiec to chyba nic trudnego...

wychwytuje duplicate to dlaczego miałoby nie wychwycic mocno zblizonego kodu najpopularniejszych skryptów?

Trochę informacji o mnie i kontakt: Leszek Wolany

Jedyny: Magazyn Marketingu w Wyszukiwarkach SEM Specialist

Droga do efektywnej pracy - Najlepszy system oparty o Getting Things Done - nozbe.com Teraz także po Polsku, z aplikacją na iPhone i iPada

Odnośnik do komentarza
Udostępnij na innych stronach

No bo wtedy skazuje na śmieć wszystko co postawione na darmowych i popularnych skryptach. Wartościowe blogi, fora i katalogi.

Zresztą imo za łatwo to oszukać żeby coś takiego się G opłacało.

Edyta: Viras na mojego konia nie licz :P

Odnośnik do komentarza
Udostępnij na innych stronach

qlweby lecą z indeksu, lub też spada wartość wychodzących z nich linków nie dlatego, ze to katalogi, ale wtedy, gdy google uzna jakiś konkretny katalog za farmę linków (zwykle to sie przytrafia katalogom niemoderowanym) lub za duplicate content (m.in. efekt tworzenia osobnych kategorii zamiast dodawać się do juz istniejacych).

Odnośnik do komentarza
Udostępnij na innych stronach

Arturoo moje qlweby idą w górę w site - kwestia dobrego podlinkowania.

BTW Duplicate Content w obrębie jedbej domeny tak naprawdę nie istnieje.

Qlweby wyleciały bo Google coś kombinowało z ulepszeniem Duplicate ale coś nie poszło i teraz wszystko w normie. Przechodzą kopie na poziomie 92%

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności