Skocz do zawartości

e-weblink.com


Rekomendowane odpowiedzi

WI777 a gdzie mogą sobie sprawdzić ?

A to już nie mój problem! :)

Gugiel ciągle miesza, pagerank.net jest chyba na bieżąco, swoich narzędzi nie udostępniam.

Iwebtoolsy też po kilku wpadkach zaczynają dbać o aktualizacje.

Niestety, porządny system musi mieć swoje narzędzia i o nie dbać oraz uważać żeby nie dać się złapać, bo gugiel coraz bardziej czuły na automaty :)

Tutaj będą zaj...iste trzy linki...

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 12,9 tys.
  • Dodano
  • Ostatniej odpowiedzi

ok jasne dodalem strone i ja zostawilem

chodzilo mi o to aby przyjrzec sie np. temu dmozowi z PR8 za ktory sie dostanie sie 231 tys pkt, teraz to mozna na przyklad porownac ze stronka np. PR4 i site 51 tys = 80 tys oraz z jakas z PR0 site: 300 czyli 300 pkt.

Chodzi o to aby zachowac odpowiednie proporcje

Używaj Cuilla i Hakii

Odnośnik do komentarza
Udostępnij na innych stronach

w sumie rozmawiałem ostatnio z noone że paczki są zbyt duże ale wpadł mi przy tej okazji inny pomysł.

Paczki wysyłane na daną domenę powinny być zależne od site jaki posiada strona emitująca.

Bo jeżeli posiadamy stałą paczke - wymienianą co 24 H np 250 linków przy site: 100 tys jest to bezsensowne do np tej samej wielkości paczki i site: 100

Np paczki powinny wygladać tak: 100 linków na 10 tys postron, i np paczka na site 50 tys posiada w sobie 500 linków na 24 h.

Wydaje mi się że pozostawienie stałej wielkości paczki nie analizując situ jest błedem tym bardziej że site jest znany dla systemu.

Pozdrawiam

Mariusz

Odnośnik do komentarza
Udostępnij na innych stronach

dokłądnie tak, szczególnie że googlebot dość często wpada na stronę ssa na jedną dobe 30 tys podstron i tydzień spi.

Jak paczka na stronie z dużym sitem posiada mało linków to poprostu googlebot widzi mase tych samych linków na podstronach i system nie wykorzystuje faktycznej mocy którą posiada.

Zróżnicowanie paczek zależnie od PR i site przyjmując że czym większy PR tym jednorazowa wizyta googlebota 24 H będzie miała większą reindeksacje.

Np Pr5- site:50 tys, paczka 1000 linków na dobe

PR2 site 50 tys - paczka 700 linków na dobe

oczywiście to tylko przykładowe liczby, ale uważam że można sprawdzić statystykę średniej indeksacji jednorazowej różnych serwisów małych i dużych i wielkośc paczek obliczyć na bazie próbki danych.

Wydaje mi się że takie rozwiązanie zwiększyłoby znacznie skuteczność systemu.

Odnośnik do komentarza
Udostępnij na innych stronach

Panowie tak czytam temat i własnym oczom nie wierze co tu się wyprawa, naprawdę nie wiecie jak sobie z tym poradzić? Niestety prawdą będzie że wkopaliście się mocno z tym site i założeniami systemu niestety. Przycinanie pkt moim zdaniem teraz nie jest dobrym rozwiązaniem (tu myślę o własnym interesie bo trochę pkt kupiłem na wasze testy i nie chciał bym ich stracić bo nagle się okaże że sprzedający stał się nie wypłacalny w systemie i zabieracie moje pkt za które zapłaciłem i kogo mam ścigać wtedy?)

Ale tak w temacie to bym zrobił inaczej troszkę:

Patentem pewnego systemu (żeby nie było że reklamuję) było to że nakładaliśmy taryfikatory stroną za kategorię (tu nie ma kategorii) więc przelecieć wszystkie strony - niestety jest tego trochę (pewnie automat) - i np kopią demoza przyciąć 75% pkt lub pójść krok dalej i porównać site strony z SI i odpowiednią ilość pkt odciąć za wykluczone podstrony bo i tak tam linki są nic nie warte więc po cholerę za to płacić ? - i to jest moim zdaniem sprawiedliwe rozwiazanie! Jak mam 100 000 podstron i 100 000 w SI to 0 pkt :) bo nie ma site zadnego tak naprawde

Odnośnik do komentarza
Udostępnij na innych stronach

linki z SI także przenoszą moc.

czy to strona o dzwonkach czy dmoz jeden pies. Znam takie dmozy że nie jeden tematyczny może marzyć o takiej mocy.

Tak więc wykluczanie SI mogłoby się nie spodobać użytkownikowi, bo skoro nie zliczać SI to i nie zajmować powierzchni reklamowej na linka itp. itd.

Ja bym zostawił jak jest tylko kombinował z wielkościami paczek itp. sprawami które sugerowali użytkownicy.

Zrobiłem test : wiem że wyznacznikiem nie jest ilość wyników ale na 155 mln po tygodniu pojawiła się na 11 pozycji.

Drugi test który dotyczył filtra za zbyt dużą ilość linków jak widać to mit. Domena naturalnie zlinkowana młoda otrzymała z systemu ponad 300 tys pkt od jednego usera jak i innych, teraz z tego co wiem nawet milion - jak widać dalej wisi www.seoparty2k7.com była to młoda domena.

Tak więc walić punktów można o ile zadba się o równowagę mocnych linków.

Narazie to trwa jakieś 7-8 dzien moze za 2 tygodnie padnie, choc czytałem w wątku że leciały za 5 k punktów w kilka dni.

Odnośnik do komentarza
Udostępnij na innych stronach

Szook proszę udowodni mi i innym że linki ze stron z SI mają wartość i są przydatne w pozycjonowaniu tak samo jak 10 podstrona (licząc od strony głównej - nie wspomnę o domenie głównej). Ja wiem że są bez wartości żadnej ale mogę się mylić więc proszę przedstaw dowody na twoją teorię :)

Tak czy tak powinniście odejmować pkt za SI jeśli nawet nie całość to przynajmniej 50% i powiedzmy będzie to kompromis pomiędzy zdaniami że SI ma znaczenie na pozycjonowanie (szook) i że linki z SI sa do bani (ja)

Odnośnik do komentarza
Udostępnij na innych stronach

ja nie napisałem nigdzie tak samo ważne - tylko że także pozycjonują. Więc umieszczając linka na podstronach SI z wymyślonym tekstem podbijesz swoją stronę. Co nie oznacza oczywiście że moc jest taka sama.

Oczywiście test robiłem i działały - nie był to test mocy tylko analiza taka sama jak linków nofollow.

Uważam że kompromis który zaproponowałeś jest dobry bowiem można przyjąć iż jest to wartość 50%.

Zrobić w systemie można mase cudów, nawet jeżeli wymagają one mocy obliczeniowej to równie dobrze mogą to być serwery lokalne które dane z obliczeń przesyłać będą do miejsca które gospodaruje linkami.

Stąd Pawle obawiam się że nawet jakby słysznym było iż SI należy odliczać w 50% to ktoś znowu powie że to zbędne gadżety bądź zasoby zjada itp. itd.

Choć z drugiej strony jeżeli się robi inwestycje to na starcie się dokłada a gdy system jest mocny to i user jest wstanie partycypować w kosztach czyli płacić za udział w systemie. Co nie oznacza że system nie powinien zachować prostoty bo w niej jego sukces. User nie chce myśleć i się zastanawiać.

Z drugiej strony jacy użytkownicy korzystają z systemów w większości seomasterzy i jeżeli mają pkt w setkach tysięcy to wiadomo skąd :). Więc jest sprawiedliwie - garstka ludzi daje inne lepsze strony większość daje takie same więc i dostaje na takich samych i jest wszystko gites. Taka mała loteria.

Odnośnik do komentarza
Udostępnij na innych stronach

To jest 1 zapytanie wiecej do Google i 1 wyliczenie więcej żeby obciąć 50% za SI tak więc to nie może przeciążyć żadnego serwera i nie robić teraz tego na hura tylko wszystko systematycznie korygować plus już od razu nowe strony od razu sprawdzać na SI.

Wydaje mi się to naj bardziej logiczne i sensowne wyjście z tej sytułaci - co na to sami admini e-weblink.com ?

Odnośnik do komentarza
Udostępnij na innych stronach

Yeden - głupkowate pytanie a która komenda pokaże rzeczywistą ilość zaindeksowanych podstron ?

Istnieje coś takiego jak margines błędu lub możliwość określenia że max SI może wynosić 100% całości site i nawet jeśli G zwróci 110% w SI to i tak przyjmujemy górną granicę 100% co nam daje maksymalne cięcie na poziomie 50% punktów więc wszystko jest OK

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności