Skocz do zawartości

Co robić z takimi stronkami


Daniel Kędzierski

Rekomendowane odpowiedzi

Pracuje sobie nad nowym katalogiem stron,

Pewne rozwiazania testuje, kazde z osobna.

Jednak smutek mnie wielki ogarnia z powodu dużej ilości wywalanych stron.

Teraz pytanie :

Czy jest sens dodawac takie strony

https://www.szook.pl/beta.php?url=https://mojerandki.pl/

czy poprostu ustawić indekerowi że jak napotka tego typu strone to ma ją sobie podarować.

Problem w tym że analiz strony mam kilka i po przejechaniu takiej domeny okazuje się że indeksowałbym co 20-30 url, reszta zostaje pominięta,

Wywalic nie problem pytanie tylko czy może warto skupiac sie nad analizą tego typu stron gdzie z góry widać podejście autora strony.

Chciałem założyć iż dane słowo kluczowe w takich tagach jak TITLE może być użyte max 2 razy , a descirptions i keywords po 4 razy przy czym łączna ilośc słow dla tych tagów to np.

title = 10

opis = 20

keywords = 20

Problem jednak taki ze wiekszosc stron przekracza te normy.

Wiec moje pytanko to: usuwac takie strony z indeksu czy analizowac i oslabiac ich pozycje.

W przypadku tej strony tag keywords osiagnol chyba :) maksimum

Pozdrawiam

Mariusz

Odnośnik do komentarza
Udostępnij na innych stronach

Sir Nimek tak tez obecnie staram sie robic,.

Ale zastanawialem sie czy skoro dany autor strony zgory zaklada jakies tam techniki jak meta keywords na 1000 słow jest sens marnowac power serwera na analize takiej strony. Tzn czy po takiej stronie mozna spodziewac sie ciekawej zawartosci.

Badz czy po takiej stronie nie mozna sie spodziewac innych sztuczek ktorych np nie bede wstanie wychwicyc swoja analizą. Wiec czy nie lepiej np wylapujac cos jednym analizerem odrazu wymieść stronę czy analizować ją dalej. Bo dalsza analiza zjada zasoby ktore mogłaby zjeśc np strona która ma lepsze metatagi i tak np szybciej doszłoby do analizy linków i innych zawartości.

Tylko tak jak pisalem: zrobie tak to z 600 tys domen zostanie 100 tys, nie zrobie tak to bedzie zawsze duzo syfu i reindksacja stron bedzie wolniejsza z uwagi na analizowanie stron ktore są takie jak ta.

Odnośnik do komentarza
Udostępnij na innych stronach

Tzn czy po takiej stronie mozna spodziewac sie ciekawej zawartosci.

Niestety w necie jest trochę stronek z ciekawą zawartością i ostro przegiętymi metatagami. Ja bym je indeksował ale dla bezpieczeństwa obniżał im nieco pozycję bo tak jak mówisz nie do końca wiadomo czy poźądny serwis czy śmiec.

Podobnie mjeśli body jest zbyt długie. Ustawiłbym tolerancję na 1500 - 2000 znaków a później obniżanie pozycji bo spamerskie śmietniki mają nawalone po kilka, kilkanaście tysięcy znaków. Ewentualnie po przekroczeniu jakiejs rozśądnej wartości krytycznej - wywalenie z indeksu.

Odnośnik do komentarza
Udostępnij na innych stronach

Co do zawartości czyli to co jest w body, strona nie powinna miec obnizonej pozycji tylko dla tego, ze zajmuje duzo miejsce. Moze po prostu jakis dlugi art jest, owszem, mozna go podzielic na kilka podstron, ale zapewne nie wszyscy to robia. Inna sprawa, jest wtedy kiedy 50% strony to linki, to wtedy bym obnizal(przyczym jak to by sie mialo do katalogow?).

Jeżeli nie wiesz czemu mój post jest taki, a nie inny to zajrzyj tutaj

Odnośnik do komentarza
Udostępnij na innych stronach

(przyczym jak to by sie mialo do katalogow?).

Imho katalogi w wynikach wyszukiwania wysoko stać nie powinny bo nikt nie szuka katalogu tylko konkretnej strony.

Co do długiego artu to yeż bym obniżał bo jak tekstu jest dużo to nie chce się czytać i ciężko znaleźć konkretny interesująyc nas fragment.

Odnośnik do komentarza
Udostępnij na innych stronach

Versis co do BODy zgadzam sie, choc takze analizuje stosunek tresci do kodu, ilosci unikalnych slow itp.

Ale generalnie teraz zabralem sie za sprzatanie stron z takimi metatagami, bo w body 1000 słow mnie nie martwi ale w meta tak. Tzn sugeruje mi ze jezeli xxx zrobil 1000 słow to zapewne zrobil tam i mega innego smiecia ktorego nie ma chyba sensu analizowac.

Zastanawiam sie tylko jakie przyjac limity dla ilosci slow w title, opisie czy keywords

np 10 title, 20 opis, 30 desc.

i tak dla titile max 1 powtorzenie, dla desc max 3, dla keywords max 4 i np wszystkie strony powyzej tych limitow robia wylotke.

Co do body - analizuje troszeczke inaczej, teraz dokladam linki wskazujace ale zliczanie ich tylko na podstawie linkow unikalnych, tzn takich ktore maja rozny anchor tekst, tym samym unikne mocy systemow linkujacych itp spraw badz mocy linka z jednej domeny - no chyba ze ktos sie na meczy i zrobi rotowany anchor dla domeny.

Ale narazie skupiam sie na metatagach jako elemencie wstepnych czystek

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności