Skocz do zawartości

Unikalność tekstu a pozycjonowanie.


kadzielawski

Rekomendowane odpowiedzi

Być może się mylę, być może mój tok rozumowania jest błędny, dlatego też chciałbym abyście sprostowali to co napiszę lub przyznali rację.

Czym są precelki? Artukułami, czyli wracamy do pierwotnego przeznaczenia Internetu. Być może mało kto to pamięta, ale Internet powstał aby łatwo i szybko wymieniać się dokumentami i aby przyśpieszyć proces ich publikacji. Było to ważne w czasie badań naukowych, gdzie informacje i wyniki tych badań wymuszały bardzo szybką komunikacje. Każdy naukowiec mógł wejść na określoną witrynę i wydrukować sobie artykuł.

Czym artykuł ważniejszy, bardziej przydatny tym w większej ilości miejsc się pojawiał. Jak zatem Google traktuje powtórzone artykuły?

Pozycjonerzy wykorzystują artykuły do zamieszczania w nich linków i powstaje pytanie dlaczego linki z artykułów powtórzonych w kilku miejscach mają być słabsze.

Mały test:

Opublikowałem artykuł na jednym z portali gromadzących artykuły do przedruku.

Obecnie znajduje się on w niezmienionej formie pod 19 domenami.

Linków jest oczywiście znacznie więcej co wynika z linkowania wewnętrznego serwisów

Żadna ze stron z tych 19 domen nie wpadła w duplicate czy w wyniki uzupełniające.

Wniosek?

Powtórzenie artykułu na wielu stronach nie zmniejsza siły linków.

Powtórzone artykuły w bardzo małym stopniu wpadają w wyniki uzupełniające.

Uzasadnienie:

- popularny artykuł będzie kopiowany i będzie linkowany z innych serwisów (naturalne pozycjonowanie)

- google traktuje tak samo ten sam artykuł na kilku / kilkunastu serwisach.

Na co nie zwróciłem uwagi? W którym momencie się mylę?

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 30
  • Dodano
  • Ostatniej odpowiedzi

Masz rację. Też swego czasu robiłem testy z identycznym artem na kilkunastu domenach. Nie było żadnego problemu. Pisałem już nie raz, że panika rozsiewana przez niektórych, że pod każdego presella trzeba pisać unikalny tekst jest wpadaniem w "paranoję duplicate content":placze:

Odnośnik do komentarza
Udostępnij na innych stronach

Czym są precelki?

Czym chcielibyśmy żeby były - to wiemy. Natomiast za pół roku preselki będą przypominały WikiSrikiMikiPedie i pojawią się na forum posty w stylu: "Google wyindeksowało mojego precla" ... "Mój presel zniknął..." ...

Przykład:

treść z wikipedii

a tu wielu znajdzie swoje precelki

A to tylko jeden z dziesiątków wpisów preclowych ...

Odnośnik do komentarza
Udostępnij na innych stronach

Hmm, czyli wywnioskowałem z tego, że artykuł jest artykułem. Nie ważne czy artykuł jest unikalny czy 100 razy powtarzany, prawda? Buduję zaplecze i teraz się pogubiłem... Mogę postawić 50 stron z takim samym artykułem i tą stronę linkować? Będzie dobry efekt? Czy lepiej 50 stron z unikalną treścią... Tak na marginesie to każdy inaczej pisze w różnych tematach :placze:

Sprzedam punkty systemu wymiany linków Gotlink.pl i Seomatik.pl

Wystawiam faktury VAT. Zapraszam do kontaktu d.szwaba@gmail.com

Odnośnik do komentarza
Udostępnij na innych stronach

w opisanym przykładzie mówisz o 19 domenach. Dlaczego dobry artykul ma sie nie pojawic w 19 miejscach w sieci? Wyglada to jak najbardziej naturalnie. Trzeba brac pod uwagę jednak rozwoj precli. W chwili obecnej ich liczba wynosi ok 100 (oficjalnych). Jesli liczba precli dojdzie do 8000, tak jak liczba katalogow, ten sam artykul pojawi sie w sieci 8000 razy. Wydaje mi sie ze twoje myslenie spowodowane jest tym, ze skoro do qlwebow mozna dodawac te same wpisy po 500 razy i wyniki zasadniczo sie nie roznia, to dlaczego pisac za kazdym razem inne artykuly. Czym innym jest wpis w katalogu, a czym innym jest dlugi artykul. Wyszukiwarka zużywa inna moc obliczeniową na "obslugę" takiej strony. Przyjmuje się (przynajmniej ja przyjmuje) ze strona ktora jest kopia innej strony i zostalo n ba niej zmienione 30 % staje sie strona unikalna. Przy krotkim opisie w qlwebie nie duzo potrzeba zeby podstrona byla unikalna, wystarczy praktycznie jakakolwiek modyfikacja skryptu, a juz ten sam wpis bedzie czyms innym dla wyszukiwarki. Inaczej sytuacja sie ma przy dlugim artykule, wówczas procentowy udzial duplicate content podstrony bedzie zawsze bardzo wysoki przy tym samym artykule. Dlaczego wiec nie korzystac z prostego generatora contentu, ktory powymienia para slow na synonimy, wylosuje pare przymiotnikow i stworzy cos troche innego. To nic nie kosztuje a wlasciciele precli stawiaja je wlasnie po to zeby miec unikalny content. (Content powinien byc czytalny dla czlowieka :placze: bo to nie forum o spamowaniu.)

Wniosek: inna jest idea tych katalogow, ich wlasciciele chca miec unikalny content, a nie jakikolwiek. Czy jak tworzysz strone na zaplecze wolisz zeby tresc na niej byla unikalna czy nie obchodzi cie to?

Odnośnik do komentarza
Udostępnij na innych stronach

Qlweby podpadły Google ponieważ:

- nikt o nie nie dbał, często obok wartościowych wpisów były wiagry itp.

- ich struktura nie była zmieniana, nikt nie modyfikował skryptu

- w większości tworzone były na subdomenach

To te czynniki a nie treść była / jest powodem osłabienia wielu qlwebów.

@wszystko ginie - aby wpaść w sławne duplicate to trzeba naprawdę się starać. Gdyby duplicate działało to już dawno żaden qlweb i inny katalog nie miałby racji bytu. Chyba, że mocno wybiegasz w przyszłość.

@imagine - czy powodem tego będzie treść? Czy czynniki o których napisałem wcześniej?

@neon103 - nie. Jeśli zrobisz identyczne strony to będziesz miał problem. Strony muszą różnić się strukturą, budową, linkowaniem. Ja próbuję rozpocząć dyskusję na temat czy powtarzająca się w granicach rozsądku (kilkadziesiąt razy) treść może być powodem osłabienia znajdującego się w niej linku.

edit for Oleq.

@Oleq - spokojnie. Nie chcę dodawać tego samego wpisu do 8 tys precli. Chodzi mi o zbadanie zasady powtarzania kontentu, jak jest traktowany przez Google. Pozycjonowanie przez artykuły stosuję już od dawna i to z powodzeniem i kiedy inni nawalali linki z automatów ja siedziałem i pisałem artykuły i wpuszczałem je gdzie się da uzyskując przez to: 1 - linki do witryny, 2 - nowych klientów. Wcale nie jestem zadowolony z powstania precli bo ostatecznie może to spowodować spadek wartości linków w art.

Swoją drogą to jeśli nie ma przeciwwskazań do powtarzania artykułów to przy pewnego rodzaju umiarze administratorzy precli mogliby zezwolić na duplikowanie treści według zasady: dobry artykuł pojawia się w sieci kilka/ kilkanaście razy (naturalnie). Inna sprawa to możliwość koszenia konkurencji poprzez usuwanie wpisów powtórzonych. Nie będzie mi się podobać konkurencja - skopiuję jego art. na kilka innych stron i admini precli wywalą ten art.

edit 2.

Oleq - ja dobrze wiem o czym jest to forum więc: nie próbuj pisać co myślę, odpuść sobie oskarżenia o spamowaniu, szczególnie na tym forum :placze:

Odnośnik do komentarza
Udostępnij na innych stronach

Ja próbuję rozpocząć dyskusję na temat czy powtarzająca się w granicach rozsądku (kilkadziesiąt razy) treść może być powodem osłabienia znajdującego się w niej linku.

to zalezy czy trafia one do uzupelniajacych. wtedy link jest mniej warty. warto sprawdzic ile wynosza granice rozsadku.

Odnośnik do komentarza
Udostępnij na innych stronach

moim zdaniem jest to racja - ciut inna budowa precli powoduje że nie dublują się wpisy, a jak się dublują to i tak link jest linkiem (może ciut słabszym) ale zaliczanym (jeżeli strona -podstrona jest) jest zindeksowana

dla Twoich okien najlepsze markizy - dla wszystkich adwokat - lub książka telefoniczna - oferty różnego typu, taniej nie będzie

Odnośnik do komentarza
Udostępnij na innych stronach

NIE zapominać o Artach w Rss.

Wiele portali udostępnia swoje kanały by rozpowszechnić swoją stronę, a co za tym idzie setki dodatkowych linków prowadzących do jednego arta o tematyce arta. Więc duplikatów sporo w tym przypadku, a jednak strony trzymają się dobrze.

Sądzę że podobnie będzie z Presellami, Artukuł powielony na 1 czy na 100 preselech będzie również wartościowy jak linki w nim zamieszczone.

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

to zalezy czy trafia one do uzupelniajacych. wtedy link jest mniej warty. warto sprawdzic ile wynosza granice rozsadku.

Artykuł ciągle jest pobierany i wstawiany na kolejne strony. Jest wiele wyników uzupełniających ale jak wcześniej pisałem są to wyniki z domen w których są tez podstrony o normalnym wyniku. Z ciekawością śledzę w którym momencie każde kolejne pobranie będzie dawało efekt tylko w wynikach uzupełniających.Gdzieś ta granica z pewnością jest.

Odnośnik do komentarza
Udostępnij na innych stronach

Wyniki uzupełniające to nie tylko treść - to również pochodne [wewnątrz linkowanie]. Czyli te same duplikaty - teksty+te same linki wewnętrzne.

Prostym przykładem mogą być strony oparte o money.pl - platformy, są ich setki.

Wiele z nich w swoim czasie było w wynikach uzupełniających.

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

Mówcie co chcecie ale w swoim preclu obserwuje zalezność: W wyniki uzupełniajace wpadają TYLKO wpisy duplicat content. Dlatego wywalam wszystko co jest duplikatem. W uzupełniajacych nie ma żadnego wpisu który jest unikalny. Przypadek....?

https://www.uslugi24.net.pl/praca-za-granica-w-norwegii/

https://strony.pajmon.info/praca-za-granica-w-norwegii/

Dwa bardzo podobne , nawet nie identyczne wpisy, i u mnie jest w uzupełniajacych... twardo będe obstawał przy stwierdzeniu że duplicat content w preclach to nic dobrego. Nie twierdze że google uwali za to kiedyś precle ale ja staram sie zminimalizować ryzyko.

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli masz Duplikat strony w 95% to możesz się spodziewać wyników uzupełniających - lecz nie koniecznie.

Odpowiednia konstrukcja strony, jak pisałem odpowiednie "Linki wewnętrzne" mogą przynieść zadowalające wyniki.

Posiadam pełne duplikaty "baza danych" na ponad 15-u domanach i żadna nie znajduje sie w wynikach uzupełniających.

Odpowiednia struktura strony i można śmiało bazować na duplikatach [Arty].

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności