Skocz do zawartości

dać sobie czas i mnożyć katalogi


graff

Rekomendowane odpowiedzi

Porównałem analyzerem i kilkoma dodatkami wyniki stron zajmujących pierwszy ekran google w interesującej mnie branży. Wnioski są takie: nie ma znaczenia relacja słów w tagach i zawartości strony, nie ma wpływu jakość kodu (błędy), nie mają wpływu inne detale, które często wymienia się jako warunki dobrej pozycji (np - nie zraża się wielokrotnymi powtórzeniami keywords).

Podsumowanie:

1. Google lubi strony, które się już odleżały w sieci (najlepiej dwa-trzy lata)

2. Google uwielbia zagnieżdżenie kluczy w katalogach. Np: /keyword/keyword/keyword.php

3. Reszta to woda na młyn magigów od seo w przeliczniku na usd.

Teoria optymalizacji chyba nijak się ma do praktyki. Co sądzicie ? Wolałbym być w błędzie, bo sporo czasu mi zajęła ta zabawa, a końca nie widać.

Piotrek

www.zeszyt.pl

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 35
  • Dodano
  • Ostatniej odpowiedzi
wynika chyba bardziej z tego ze wiecej linkow do takowych prowadzi

Powiedziałem - sprawdziłem strony :-). Problem w tym, że stroniczka nie spełnia żadnych formalnych warunków na topową pozycję :-) (tych o których się tu rozmawia) Przykład: strona numer 2 zlinkowana jest jednym bezpośrednim łączem z google i kilkunastoma pośrednimi poprzez index z innych katalogów (w tym dmoz).Wewnętrznych i zewnętrznych (pośrednich) łączy jest pewnie więcej, ale teoria linków generalnie upada.

Znam własciciela serwisu i wiem, że palcem, nie kiwnął ani przy optymalizacji ani przy popularyzacji. Wrzucił sobie dwa lata temu sieczkę do sieci i o niej zapomniał, a całą pracę wykonały roboty. Dorobiła się PR 3. Coś tu nie gra, więc chciałbym wiedzieć co.

Jedyną wspólną cechą topowych stron jest to co opisałem w pierwszym poście. Odległe daty publikacji (bez przełożenia na linki) i katalogi zgodne z keywordem.

Piotrek

www.zeszyt.pl

PS. Jak się robi link w podpisie forumowicza ? :-)

Odnośnik do komentarza
Udostępnij na innych stronach

Dużo racji masz ale nie do końca.

Pozycjonowanie jest jak psychologia nauką nie ścisłą więc to co teraz wydaje ci sie nieistotne za chwile może pogrązyć twoją stronę w dól.

Niezbadane są scięzki algorytmów 8)

Firmę w Polsce utrzymuje czynną od 1997 roku w Hamburgu od 2008 Roku więc nie robią na mnie wrażenia awatary i linki w stopce. Zajmuje się od zarania początków Black Hat Seo. Mam prawo do zapomnienia. Niech się firma Google zajmie sztuczną inteligencją zanim  Sam Altman ich wyprzedzi :) Moje stare konto https://www.forum.optymalizacja.com/profile/21-kill-bill/  :( boże jaki młody byłem i głupi. Wróciłem i wchodzę z drzwiami nie drzwiami.

Odnośnik do komentarza
Udostępnij na innych stronach

Niezbadane są scięzki algorytmów

Taaa... nic bardziej ścisłego niż algorytm właśnie. Dlatego dokonując takich "odkryć" jak wyżej opisane odnoszę wrażenie że sztuka pozycjonowania i optymalizacji jest z lekka przepompowanym balonem. Póki co, a może już - skoro pageranki i inne tracą na znaczeniu. W innym watku pytam o procentowe relacje keywordów w tagach i body, bo mi w raporcie wywaliło, że to niezykle istotny parametr. Właściciel topowego serwisu nie zawraca sobie głowy nawet poprawnością kodu.

Was to nie dziwi ? No to pewnie czegoś nie wiem :-)

Piotrek

www.zeszyt.pl

Odnośnik do komentarza
Udostępnij na innych stronach

Powiedziałem - sprawdziłem strony :-). Problem w tym, że stroniczka nie spełnia żadnych formalnych warunków na topową pozycję :-) (tych o których się tu rozmawia) Przykład: strona numer 2 zlinkowana jest jednym bezpośrednim łączem z google i kilkunastoma pośrednimi poprzez index z innych katalogów (w tym dmoz).Wewnętrznych i zewnętrznych (pośrednich) łączy jest pewnie więcej, ale teoria linków generalnie upada.

Zależy jaką obrałeś metodologię do sprawdzenia tych stron.

Podaj proszę adres, to porozmawiamy o konkretach.

Pamiętaj również, że Google bierze setki (a może i nawet tysiące) różnych parametrów pod uwagę - sprawdzenie kilku nie oznacza że zanalizowałeś stronę.

Teoria linków z odpowiednim tekstem odnośnika to obecnie jedna z najbardziej stabilnych i realnych teorii, sprawdzona empirycznie na wielką, wielką skalę - przykład pierwszy z brzegu - wpisz 'computers' w wyszukiwarkę - spośród ponad 60 mln wyników na pierwszym miejscu jest strona Apple, na której słowo 'computers' nie zostało ani razu użyte(!).

Znam własciciela serwisu i wiem, że palcem, nie kiwnął ani przy optymalizacji ani przy popularyzacji. Wrzucił sobie dwa lata temu sieczkę do sieci i o niej zapomniał, a całą pracę wykonały roboty. Dorobiła się PR 3. Coś tu nie gra, więc chciałbym wiedzieć co.

Jedną z zalet pozycjonowania jest to, że część pracy mogą wykonać za Ciebie inni. Wystarczy że masz dobrą treść - inni sami będą umieszczać odnośniki do Twojej strony - a zyski z tego tytułu będziesz czerpał Ty (w postaci wyższych pozycji w rankingu).

Proste i logiczne, bo dopingujące do budowania wartościowych merytorycznie serwisów www - a oto przecież chodzi w Internecie przede wszystkim, prawda?

Odnośnik do komentarza
Udostępnij na innych stronach

Adore, Twój komentarz jest politycznie poprawny, idea linowania powszechna, a algorytm google owiany tajemnicą :-) Jasne. Tysiące parametrów ? Możliwe - przy czym waga tych od dziesiątego (setnego?) powinna mieć kosmetyczny wpływ na pozycjonowanie.

Nie wchodząc w detale - jak określiłbyś szanse strony na dobrą pozycję znając takie dane:

1. brak zgodności z w3c (html,css)

2. 15 linków zewnętrznych

3. 17 wewnętrznych

4. keyword w D i A

5. relacje w tagach very poor, brak robots

6. 0 keywordów w linkach

7. 0 keywordów bold, h1.. itd

8. gęstość keyworda - 1 %

9. zaindeksowana w google (i nic poza tym - z kluczowych)

10. obecna w większości polskich kat i dmoz

Jeżeli w/w nie przekreśla szans na wysoką pozycję - to co takiego musi mieć w sobie stroniczka, że lokuje się na drugiej pozycji ? Na dzisiaj i od dłuższego czasu. Tylko tyle chciałbym wiedziec :-) Czy ten wynik nie podważa sensu teorii pozycjonowania ?

Pozdrawiam, Piotrek.

Odnośnik do komentarza
Udostępnij na innych stronach

Adore, Twój komentarz jest politycznie poprawny, idea linowania powszechna, a algorytm google owiany tajemnicą :-) Jasne. Tysiące parametrów ? Możliwe - przy czym waga tych od dziesiątego (setnego?) powinna mieć kosmetyczny wpływ na pozycjonowanie.

No właśnie - pytanie, jak rozłożone są wagi poszczególnych parametrów? Nikt nie zna odpowiedzi - a ja nawet nie próbuję szacować, bo to bezcelowe. Tyle, że w tym momencie rodzą się pytania typu - czy 90% najmniej istotnych parametrów nie będzie w stanie przeważyć nad 10% tych najważniejszych...?

Ja nie wiem :) - Próbuję tylko powiedzieć, że istnieje duże pole manewru w tym zakresie.

Nie wchodząc w detale - jak określiłbyś szanse strony na dobrą pozycję znając takie dane:

1. brak zgodności z w3c (html,css)

2. 15 linków zewnętrznych

3. 17 wewnętrznych

4. keyword w D i A

5. relacje w tagach very poor, brak robots

6. 0 keywordów w linkach

7. 0 keywordów bold, h1.. itd

8. gęstość keyworda - 1 %

9. zaindeksowana w google (i nic poza tym - z kluczowych)

10. obecna w większości polskich kat i dmoz

Po kolei:

Ad 1

Zależy jaki to brak zgodności - jeżeli błędy kosmetyczne, nie przekreślające możliwości ustalenia logicznej struktury strony, to nie widzę przeszkód.

Ad 2,3

Jak to sprawdzasz?

Ad 4

Dla mnie OK

Ad 5

Tagi są mało ważne (lub wręcz są pomijane). Robots - niepotrzebny

Ad 6

Chodzi Ci o odnośniki zewnętrzne, prowadzące do strony? Jeżeli tak - ponawiam pytanie odnośnie metodologii sprawdzania odnośników.

Ad 7 i 8

Z pewnością nie są to wartości optymalne, ale szczęście pozycjonowania właśnie na tym polega, że nie musisz mieć wartości optymalnych dla wszystkich parametrów, by być na pierwszym miejscu.

Ad 9

Nie bardzo rozumiem

Ad 10

Mamy więc odnośniki do strony.

Jeżeli w/w nie przekreśla szans na wysoką pozycję - to co takiego musi mieć w sobie stroniczka, że lokuje się na drugiej pozycji ? Na dzisiaj i od dłuższego czasu. Tylko tyle chciałbym wiedziec :-) Czy ten wynik nie podważa sensu teorii pozycjonowania ?

Pozdrawiam, Piotrek.

Wyżej wymienione obserwacje nie przekreślają szans na wysoką pozycję - trochę co prawda wypowiadam się na ślepo, bo nie znam ani słowa ani jego konkurencyjności, ani nawet adresu strony.

Reasumując - strona nie musi być idealna, by znaleźć się na pierwszym miejscu. Staż strony jest pewnie także brany pod uwagę jako jeden z parametrów, ale myślę, że istnieje wiele innych, które są znacznie ważniejsze - i w tym przypadku także one przede wszystkim mają większy wpływ na pozycję.

Odnośnik do komentarza
Udostępnij na innych stronach

trochę co prawda wypowiadam się na ślepo, bo nie znam ani słowa ani jego konkurencyjności, ani nawet adresu strony

Adore, o to właśnie chodzi, żeby ustalić coś na poziomie ogółu. Podając przykład zastanawiam się, czy tu wogóle obowiązują jakieś reguły. No bo tak - stronka narusza elementarz optymalizacji, ale jej to nie szkodzi. Wniosek: elementarz do kosza. Przekopałem sieć na wszelkie znane mi sposoby (ekspertem nie jestem) i znalazłem 49 linków do indexu tego serwisu (na keyword "pozycjonowana" jest podstrona, do której bezpośrednich linków jest 15), więc niech ich będzie nawet sto. W większości z niskich rangów. Czy brak robots jest równoznaczny z robots all - to ponoć zależy, nie wiem. Itd... Liczbę linków w strukturze podaje analyzer, z którego korzystasz :-) Ten .nl

Pewnie masz rację z tym tysiącem parametrów. Webmasterzy w owczym pędzie masowo zoptymalizowali kluczowe elementy więc alogorytm różnicuje pozycje bardziej subtelnymi elementami, ale coś mi się widzi, że to jest droga do nikąd, a demokracja wymusi podawanie wyników wyszukiwaniania w układzie losowym :-)

No, to wygląda na to, że gramy w grę, której zasad raczej nie znamy. Czy udało się Wam stosując (świadomie) sobie znane techniki wyprowadzić serwis na pierwszy ekran z np. dziesiątego ?

Odnośnik do komentarza
Udostępnij na innych stronach

Adore, o to właśnie chodzi, żeby ustalić coś na poziomie ogółu. Podając przykład zastanawiam się, czy tu wogóle obowiązują jakieś reguły. No bo tak - stronka narusza elementarz optymalizacji, ale jej to nie szkodzi. Wniosek: elementarz do kosza.

Poziom ogółu sprowadza się do stwierdzenia: on-page factors + off-page factors. A w ich ramach: odnośniki, ich tekst, zawartość strony, itp. itd.

I tutaj można po kolei wymienić kolejne parametry, ogólnie opisywane na serwisach o pozycjonowaniu.

Tyle, że pozycjonowanie jest na tyle specyficzne, że ogół pozostaje ogółem - to znaczy niewiele wnosi w pojedynczych przypadkach. Bo to właśnie od słowa, jego konkurencyjności, ilości stron na dany temat, itp. zależy ile pracy jest potrzebne, by uzyskać czołową pozycję.

W opisywanym przez Ciebie przypadku jest zapewne tak, że wystarczy niewiele pracy, by strona znalazła się na czołowym miejscu - na tyle niewiele, że nawet brak tych powszechnie uważanych za najważniejsze czynników nie przeszkadza na osiągnięcie zamierzonego celu.

Co do wyciągniętego wniosku - uważam, że jest błędny.

Nie ma czegoś takiego jak 'naruszanie elementarza' - nie ma negatywnych efektów (zakładam, że nie mówimy o spamie, bo nic wcześniej o tym nie wspominałeś w przypadku tej strony) - po prostu są strony które lepiej lub gorzej spełniają kryteria wyszukiwarek.

Przekopałem sieć na wszelkie znane mi sposoby (ekspertem nie jestem) i znalazłem 49 linków do indexu tego serwisu (na keyword "pozycjonowana" jest podstrona, do której bezpośrednich linków jest 15), więc niech ich będzie nawet sto. W większości z niskich rangów. Czy brak robots jest równoznaczny z robots all - to ponoć zależy, nie wiem. Itd... Liczbę linków w strukturze podaje analyzer, z którego korzystasz :-) Ten .nl

Najwyraźniej 49 linków wystarczy - bo inne strony mają ich mniej. Nie będę wchodził w niuanse, ale wiesz zapewne że odnośnik odnośnikowi nierówny - czym innym będzie odnośnik z dmoz, czym innym odnośnik ze strony domowej Jasia z Koziej Wólki.

Pewnie masz rację z tym tysiącem parametrów. Webmasterzy w owczym pędzie masowo zoptymalizowali kluczowe elementy więc alogorytm różnicuje pozycje bardziej subtelnymi elementami, ale coś mi się widzi, że to jest droga do nikąd, a demokracja wymusi podawanie wyników wyszukiwaniania w układzie losowym :-)

Ilość parametrów podaję za oficjalnym komunikatem Google - www.google.com/explanation.html

Przy wielkiej ilości wyników rzeczywiście rolę odgrywają coraz bardziej subtelne różnice - dlatego na pozycjonowanie należy patrzeć globalnie (tj. brać pod uwagę każdy najdrobniejszy nawet aspekt) - w myśl zasady 'ziarnko do ziarnka...'. Zresztą ludzie już dawno to odkryli - badania pokazują, że jednowyrazowe zapytania są wyszukiwane rzadziej niż 2- i 3- wyrazowe frazy - ludzie po prostu chcą dokładnych a nie mniej lub bardziej ogólnych wyników.

No, to wygląda na to, że gramy w grę, której zasad raczej nie znamy. Czy udało się Wam stosując (świadomie) sobie znane techniki wyprowadzić serwis na pierwszy ekran z np. dziesiątego ?

To jest właśnie najciekawsze, że nikt nie zna zasad - dlatego amatorstwem jest dla mnie gwarantowanie pozycji przez różne pseudofirmy pozycjonujące - no bo jak można zagwarantować coś, na co nie ma się pełnego wpływu...?

Wypowiadam się na tym (i kilku innych forach) z przekonaniem o różnych technikach pozycjonowania bo wielomiesięczne testy i obserwacje pozwoliły mi sprawdzić, jak zmienia się pozycja strony w zależności od zmiany różnych parametrów - stąd wiem co jest dobre, a co gorsze - sęk w tym, że nie wiem co jest optymalne ;-)

Tymniemniej zaowocowało to wieloma czołowymi miejscami, także dla popularnych słów kluczowych (w skali kilku milionów wyników) co tylko utwierdza mnie w przekonaniu, że wiem w jakim kierunku mam podążać.

Ale ciągle mam świadomość tego, że wielu rzeczy nie wiem i pewnie się nie dowiem - bo np. zdążą się zmienić.

Odnośnik do komentarza
Udostępnij na innych stronach

(..) ale teoria linków generalnie upada.

Znam własciciela serwisu i wiem' date=' że palcem, nie kiwnął ani przy optymalizacji ani przy popularyzacji. Wrzucił sobie dwa lata temu sieczkę do sieci i o niej zapomniał, a całą pracę wykonały roboty. Dorobiła się PR 3. Coś tu nie gra, więc chciałbym wiedzieć co.

[/quote']

Jak sam wspominasz strona istenije z 2-3 lata. Sadza po twoim podpise moze zawierac tresci ktore sa powielane na wielu forach i innych "mini stronkach", tkai linkow moze byc minmum CAŁA MASA .. np. seriws divx odemnie, nigdy nie był pozcyjonowany, a jest bardzo wysoko. bo ludzie linkowali sie do plików i mamy CAŁA mase linków.


"jak bylem mały, to byłem mały..."

Odnośnik do komentarza
Udostępnij na innych stronach

Dobra, wycofuję się z antylinkowych poglądów, ale bez przekonania. Oczywiście, to w zasadzie dotyczy natury sieci, więc ilość linek musi decydować o pozycji i z tym nie zamierzam dyskutować. Pomysł z errorem algorytmu jest fajny, ale te niezrozumiałe dla mnie zalezności dotyczą zbyt dużej liczby serwisów, więc raczej odpada.

https://www.google.pl/search?sourceid=navcl...=awans+zawodowy

pozycja NR 5 - na wszelki wypadek zachowałem zrzut ekranu, bo może coś się zmieni, zanim rzucicie na to okiem. Ktoś czuje się na siłach, by wyjaśnić mi ten fenomen ?

Z góry dzięki :-)

Odnośnik do komentarza
Udostępnij na innych stronach

Raz jeszcze ja. Adore, wczytałem się w Twoją opinię i pójdę w ogólniki jeszcze dalej. Zanim jednak...

Bo to właśnie od słowa, jego konkurencyjności, ilości stron na dany temat, itp. zależy ile pracy jest potrzebne, by uzyskać czołową pozycję.

No przecież cały czas mówię - zero pracy wymaga :-) Wrzucasz w sieć i jak dobre wino dojrzewa sobie. Proste :-)

A poważniej...

na pozycjonowanie należy patrzeć globalnie (tj. brać pod uwagę każdy najdrobniejszy nawet aspekt) - w myśl zasady 'ziarnko do ziarnka...

Chyba mógłbym wykazać Ci brak konsekwencji w zeznaniach :-) Zbierasz ziarnka, a na chłopski rozum to trza od pełnych worków zacząć. Dla mnie takimi są uznane standardy. Po dopasowaniu do nich, mogę zacząć robić za kurę i dziobać punktowo. Jeżeli więc niedopasowanie nie działa in minus dla serwisu, to z pewnością nie działa in plus. Mam tu na myśli wspominane już elementarne sprawy - poprawnośc kodu, osławione tagi T, D, H, B, A, zdrowe relacje ilościowo-jakościowe keyword-body, link-keyword, rozsądna waga pliku, itp. Jeżeli więc za "całokształt niepoprawności" serwis dostaje zero punktów, to musi zapracować w innych miejscach z nawiązką. Do tego miejsca się zgadzamy ? Zakładam, że tak. Pierwsze co proponujesz - to linki nie z Koziej Wólki. Jasne. Lecę po forach, powielam podpisy, płacę za boxy, zakładam blogi i co tam jeszcze. Mnożę linki z kluczem przez pączkowanie. Efekt - wrażliwy na subtelności algorytm google uznaje mój serwis za wartościowy mimo braku treści, czego wzorcowym przykładem niech pozostanie link podany w poprzednim poscie, choć od roku nikt nie zawraca sobie nim głowy. No i tak możemy bić pianę długo jeszcze :-), ale moc jest z Tobą, bo masz sukcesy :-).

Po krachu dotcomów ktoś w końcu może się odkuć. Jest masa ludzi, w których interesie leży utrzymywanie stanu niepewności co do obowiązujących reguł gry. Pewnie pojawi się potem jakiś guru, który ogłosi że król jest nagi, co oznaczać będzie że daliśmy sobie zrobić wodę z mózgów. Myślę, że cały ten seo-pr-interes jest formą dyktatury w środowisku, które jej długo tolerować nie będzie. Google zamiast chrzanić o subtelnościach powinno - moim skromnym zdaniem - albo odkryć karty, albo odpuścić te zawody, bo zrobią z sieci bardzo nieprzyjazne dla użytkownika środowisko i obszar pozbawionej zasad rywalizacji między twórcami stron. Chyba idzie ku lepszemu, bo producentom magicznego softu miękną rurki. To tyle w ramach ogólników :-) Trza poczekać na sieć neuronową o inteligencji orangutana, wtedy będzie ok.[/url]

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności