Skocz do zawartości

Duplicate a dzielenie dłuższych tekstów


kadzielawski

Rekomendowane odpowiedzi

Od czasu do czau zdarzy mi się popełnić jakiś tekst / artykuł, który udostępniam do pobrania na inne witryny niż moja. Artykuł taki zazwyczaj pobierany jest w całości i umieszczany w tematycznych serwisach. Niekiedy wstawiam go na własnej stronie jako pierwszy niekiedy prześle go komuś a później wstawiam u siebie. Nigdy nie wiadomo czy nie wpadnie któryś w duplicate.

Pytanie:

Czy aby uniknąć duplicate można dzielić np całość teksty na podstrony (jak dłuższe artykuły na gazeta.pl)?

Czy dzielenie wystarczy aby uniknąć duplicate?

Odnośnik do komentarza
Udostępnij na innych stronach

Kadzielawski, z tego co czytałem chyba u Mata Cuttsa czy na innym amerykańskim blogu, to raczej strona musi być bardzo podobna do siebie w okolicach 60-70% a raczej połowa to 50/50. Przeglądałem testy ale nikt nie przeprowadzał tu takich jak widzę, dlatego podbijam temat i przyłączam się do Twojego pytania.

Odnośnik do komentarza
Udostępnij na innych stronach

Z moich dotychczasowych praktyk wynika, że podział (gdy tekst był w całości) lub posklejanie tematu (gdy był podzielony) wystarcza. A dotyczy to coś w stylu blogów, których teść jest republikowana na portalu ze strony domowej blogującego. Czasami nawet ten sam tekst z bloga wisi w 3 miejscach i na daną frazę te trzy witryny okupują 3 pierwsze pozycje. Potrafią też przeskoczyć stronę domową blogującego.

logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Odnośnik do komentarza
Udostępnij na innych stronach

  • 3 tygodnie później...

Załóżmy, że ktoś zrobi system linków stałych dla wordpresowych precli, ale działający na takiej zasadzie, że na dołu dodaje krótkie np. 300-u znakowe teksty z jednym linkiem i tytułem wpisu - wszystkie udają wpisy w preclu. Takich udawanych wpisów jest np. 4 na stronie. Uczestnik systemu na każdą frazę pisze np. 10 krótkich różnych tekstów. Czy takie coś powiększa ryzyko duplicate content - chyba nie? Jeżeli ktoś zrobi 100 takich samych wpisów do precli, które będą w takim systemie, to nawet lepiej, bo udział tej samej treści w całości strony zmniejsza się. Czy to ma sens?

Eksperyment Discover.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Robiłem stronki pojedyncze identyczne, 100% jak oryginał, oprócz tagów, i Google to normalnie indeksowało, chociaż to pojedyncze, no to moze inaczej to się traktuje? Na przykład z przepisów mojej żony (smak.waw.pl) brałem pojedyncze przepisy w celu robienia mini "zaplecza tematycznego" i robiłem absolutnie identyczne strony, czyli pojedynczy przepis skopiowany z oryginala. Jedynie co ją różni od oryginała - Tytle i tagi. I znów - Goolge nic nie miało przeciwko. Mój wniosek: nie trzeba się bac Duplicate. Może w przypadku stron z dużym site to nie działa?

Odnośnik do komentarza
Udostępnij na innych stronach

@Yeden - według mnie to ma jak najbardziej sens pod warunkiem, że strony na których będą umieszczane wpisy będa miały zróżnicowaną strukturę. Ustaliliśmy już, że za powtórzenie treści nie ma kar. Są natomiast za powtarzającą się strukturę podston i witryn.

@ Pawka - w przypadku serwisów z dużą ilością podstron wpada się łatwo w site 260 a co za tym idzie część wyników do piasku leci. Natomiast jak kiedyś tam już wspominaliśmy nie ma to nic wspólnego z unikalną treścią.

Wydaje się, że Google znalazło niezły sposób na odsiew podston. Nie traktuje ich po tekście a po strukturze i teraz jak powstanie 100 000 nowych WP bez zmienionej struktury (kod + treść + linki wychodzące) to wrzutka do piasku. Trzeba się zastanowić jak ominąć podobieństwo podstron (nie mam na uwadze treści).

Odnośnik do komentarza
Udostępnij na innych stronach

Pamiętam jakis post na blogu, ktore robił testy w kierunku oryginalność i duplicate content.

G było najgorzej (z Y i MSN), jeśli chodzi o to co jest w SERP-ach - wyszukiwarki mają dużo problem decydować co oryginał i co kopia.

Oryginał na słabszej domeny przegrała z kopią na mocniejszej - czytane około poł roku temu - artykuł i url niestety nie pamiętam.

Odnośnik do komentarza
Udostępnij na innych stronach

WP nie rusza bo ludzie uzywaja podobnych themow czesto wiec nie moga zrobic tak... musza kombinowac inaczej w przypadku blogersow.

Filtrowanie WP może być łatwiejsze niż qlwebów. Wystarczy zliczyć ilość linków wychodzących z każdego z wpisów i "mamy cię". Uważam, że trzeba nieco przerabiać WP i nie koncentrować się na unikalności treści a strukturze witryny.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności