Skocz do zawartości

whois


Beavis

Rekomendowane odpowiedzi

15,780,000,000
+ 4,910,000,000
+ 1,330,000,000
+   159,000,000
--------------------
???????????????

Zapewne tylu domeną google sprawdza whois. Chodź wydaje mi sie że jest to i tak zawyżona liczba. Więc jest to ledwo 20mld domen. Z czego 99.% wystarczy sprawdzić tylko raz w roku. Ten jeden procent to zmiana wlasciciela domeny. A znając google to wie kiedy dokonywana jest zmiana wlasciciela.

Ale tak jak pisalem google nie sprawdza wszystkich domen, a tak bynajmniej było.

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 42
  • Dodano
  • Ostatniej odpowiedzi
niesformatowanego kodu.
Otoz to...

Odpowiedź na zapytanie whois jest chyba własnie dość jasno i prosto zformatowana.

Co innego analiza tej odpowiedzi by odpowiedziec na pytanie, czy to aby na pewno ten sam właściciel...

Mając na mysli marnotrawienie sił i środków miałem na mysli raczej sens całego przedsięwzięcia.

I to zarówno jesli chodzi o whois jak i o problem analizowania IP jesli chodzi o siłę linków.

Nie ma chyba dowodów na to, ze faktycznie linki z jednego IP (a tym bardziej z domen jednego właściciela) mają mniejszą moc. Nie wyobrażam sobie testu na to, bowiem nie mamy ŻADNEGO sposobu pomiaru siły linku, a tworzenie testów na zasadzie - ta strona ma linki w ramach tego samego IP, a ta strona ma linki z zewnetrznych IP, bowiem nie jestesmy zapewnić dokładnie tych samych innych parametrów wpływających na PR i pozycje w SERP tych stron.

Nie wyobrażam sobie stworzenia dwóch JEDNAKOWYCH stron z linkami w tej samej ilości i z takich samych jednakowych stron, tylko że z różnymi IP. To jest niemożliwe do zrobienia, chociażby z powodu Duplicate Content.

A co z serwerami, które na jednym IP mają kilka tysięcy domen (np. hosting) albo w ramach swoich domen sprzedają masowo subdomeny (home.pl, republika.pl). Chcecie powiedziec, ze Google faworyzuje strony z domen na samodzielnych małych serwerkach z unikalnym IP oraz whois (najlepiej jedna domena/jedno IP/jeden właściciel wg whois)?....

No zastanówcie się... Czy na miejscu Google w ten sposób chcielibyscie walczyć ze światem SEO?

Bo wg mnie są na SERP ważniejsze problemy (jak chociażby nieistniejące strony od miesięcy wiszące w indeksie)...

Tak naprawdę cała nasza wiedza o Google pochodzi tylko z obserwacji wyników. I wiele rzeczy nam się tylko wydaje, podajemy hipotezy dobrze tłumaczące 2-3 przypadki róznych "katastrof", ale całkowicie nie sprawdzające się w kolejnych 3-4. Mówię o filtrach, sandboxach, siłach linków itp. itd. Tak naprawdę niczego nie możemy byc pewni na 100%.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wyobrażam sobie stworzenia dwóch JEDNAKOWYCH stron z linkami w tej samej ilości i z takich samych jednakowych stron, tylko że z różnymi IP. To jest niemożliwe do zrobienia, chociażby z powodu Duplicate Content.

No nie żartuj, co w tym trudnego? Robiłam takie testy, i myślę, że nie tylko ja. Na karę za DC możesz sobie czekać i czekać...

Generalnie zastanawianie się czy to co robi Google ma sens z naszej perspektywy jest właśnie pozbawione sensu. Czy ma sens rozdawanie milionów skrzynek pocztowych z mega pojemnością za darmo?

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wyobrażam sobie testu na to, bowiem nie mamy ŻADNEGO sposobu pomiaru siły linku

poza pomiarem skuteczności

chociażby z powodu Duplicate Content.

No prosze co za gość! twierdzi że google nie Bada IP i Whois ale za to wykrywa dwie identyczne strony spośró miliardów

Chcecie powiedziec, ze Google faworyzuje strony z domen na samodzielnych małych serwerkach z unikalnym IP oraz whois (najlepiej jedna domena/jedno IP/jeden właściciel wg whois)

Dokładnie tak takie linki i storny są lepsze/.

Czy na miejscu Google w ten sposób chcielibyscie walczyć ze światem SEO?

Google nie walczy z SEO - ten machanizmy są niezależne od istnienia SEO - chodzi po prostu o osłabienie np.: wzajmenie linkujących się domen jedengo hiperportalu.

Bo wg mnie są na SERP ważniejsze problemy (jak chociażby nieistniejące strony od miesięcy wiszące w indeksie)...

Widzisz Google nie ustawia listy priorytetów wg. Twojego zdania ....

Mówię o filtrach, sandboxach, siłach linków itp. itd.

No co ty - a ja wiem na 100% jak złapać fitr.

Tak naprawdę niczego nie możemy byc pewni na 100%.

I nareszczie jakaś racja

Odnośnik do komentarza
Udostępnij na innych stronach

Czy ma sens rozdawanie milionów skrzynek pocztowych z mega pojemnością za darmo?

Jeżeli obok większości listów są linki sponsorowane to myślę że ma ;)

"Wielkie uczyniłaś pustki w kraju naszym,

Ty żałosna partio tym rządzeniem waszym.

(...)

Z każdego kąta żałość człowieka ujmuje

A kraj już nowych rządów tęskno wypatruje."

Odnośnik do komentarza
Udostępnij na innych stronach

Nie wyobrażam sobie testu na to, bowiem nie mamy ŻADNEGO sposobu pomiaru siły linku

poza pomiarem skuteczności

Dobra... jakos tam widac skuteczność linkowania. Chodzi mi o to, że nie jestesmy w stanie ocenić, czy na tę skuteczność miało wpływ whois czy IP, bowiem w gre wchodzi również kilka a może i kilkadziesiąt innych czynników. Dlatego tez uważam, że nie można przeprowadzić miarodajnego testu porównawczego, bowiem nie jestesmy w stanie zapewnic takiego samego "środowiska" z róznicą jedynie w IP i whois.

chociażby z powodu Duplicate Content.

No prosze co za gość! twierdzi że google nie Bada IP i Whois ale za to wykrywa dwie identyczne strony spośró miliardów

Są ewidentne dowody, ze Google porównuje strony ze sobą.

Nie ma dowodów na to, że whois i IP odgrywaja jakąkolwiek rolę (cały czas mowa o linkach, wiadomo, ze można dostać bana za nadmierną ilość subdomen na jednym IP, ale bany się dostaje recznie, nie z automatu) - jeśli sie myle to prosze o przedstawienie tych dowodów. DOWODÓW, nie przypuszczeń...

Chcecie powiedziec, ze Google faworyzuje strony z domen na samodzielnych małych serwerkach z unikalnym IP oraz whois (najlepiej jedna domena/jedno IP/jeden właściciel wg whois)

Dokładnie tak takie linki i strony są lepsze.

W grę wchodzi tyle czynników, ze nie rozumiem skąd ta pewność. A i w wynikach jakos tego nie widzę. Gdyby tak było wiekszość ludzi z tego forum miałoby w domu własny serwer, najlepiej z kilkoma łączami i jak najwiekszą iloscią IP, aby na kazdym IP miec osobną domenę i nie marmowałoby pieniedzy na hosting gdzie na jednym IP siedzi kilka tysięcy domen i kilkaset tysięcy stron.

chodzi o osłabienie np.: wzajmenie linkujących się domen jedengo hiperportalu.

I twierdzisz, ze do tego jest niezbedne badanie whois i IP? Nie wystarczy nazwa domeny?

Odnośnik do komentarza
Udostępnij na innych stronach

No nie żartuj, co w tym trudnego? Robiłam takie testy, i myślę, że nie tylko ja.

No to mi powiedz, jaki wpływ na siłę linkowania maja nastepujące czynniki

- linkowanie z jednego IP w ramach jedej domeny i jej subdomen, gdy nie ma innych domen na tym IP

- linkowanie z jednego IP w ramach jedej domeny i jej subdomen, gdy jest dużo innych domen na tym IP

- linkowanie z innych domen na tym samym IP, ale tych domen jest mało (a ile to jest mało?)

- linkowanie z innych domen na tym samym IP, gdy domen na tym iP jest bardzo duzo (tez ciekawe ile to jest bardzo dużo?)

- linkowanie z subdomen, ale z innymi IP

- linkowanie z innych domen z innych IP, na których nie ma innych domen

- linkowanie z innych domen z innych IP, na których jest duzo innych domen

Do tego dołóż jeszcze wariacje tego dla różnych/jednakowych whois.

A czy wpływ na to linkowanie moze miec ogólna ilość linków wychodzących z danego IP?

A czy nie ma wpływu na przykład szybkość łącza/serwera (czyli czas odpowiedzi serwera - bo po co promować w wynikach strony, na które nie można się dostać w rozsądnym czasie... logiczne?)

A ilość linków przychodzących na to IP?

A może IP ma w Google tez cos w rodzaju PR (IP Rank :D ), które mówi, ze na danym IP sa same dobre strony? (żartuję oczywiście :D )

Potrafisz przetestowac to wszystko w sposób jednoznaczny?

Jesli tak to chylę czoła, całuje rączki, kłaniam się nisko i juz sie nie odzywam.

Odnośnik do komentarza
Udostępnij na innych stronach

Dorzucę parę zdań od siebie:

Duplicate content nie istnieje (nie dostaniesz za to bana, filtra czy cokolwiek innego) Jest tyle tręści powtarzających się w necie i nikt na tym nie cierpi. Sugerowanie, że G porównuje miliardy stron pod względem treści jest raczej żenujące (są stronki, które róźnią tylko linki w stopce i ładnie na necie wiszą)

Sandbox nie istnieje - w każdym razie nie dostaje się go za zbyt dużo linków z jednym anchorem. Za za szybki przyrost linków itp. I na 100% nie siedzi się w nim miesiącami

Ip nie ma tak dużego znaczenia - ważniejsza jest unikatowa nazwa domeny - w linkowaniu generalnie chodzi o to żeby przy dużej ilości linków Ip pochodziło z różnych klas, bo wtedy jest to bardziej wiarygodne linkowanie

przyznawanie różnorakich filtrów jest dość skomplikowane i nie zależy tylko od linkowania z jednym czy dwoma anchorami i nienaturalnymi przyrostami tych linków, bo jak wytłumaczyć zjawisko Google bomb.

Co do wartości takich a takich linków- Google nie jest jeszcze aż tak inteligentne, żeby odróżnić link płatny od nie płatnego, linku ze śmiecia czy wartościowego serwisu. Pod tym względem G dopiero raczkuje.

sprawdzanie whois i branie pod uwagę przy obliczaniu wartości linku - imho G ma dość problemów z określeniem powiązania tematycznego linku żeby jeszcze zajmować się takimi pierdołami jak whois, które można zmieniać i różnicować do woli

content jednak ma znaczenie - wbrew utartym opinią, że wystarczy BL do dobrej pozycji to powiem, że na trudniejsze hasła opłaca się robić zmiany i ulepszenia optymalizacyjne na stronie - co jakiś czas uaktualnić treść i desc - rozbudować o nowe podstrony

To jest moje osobiste zdanie podparte doświadczeniem i konsultacją z innymi pozycjonerami.

Edyta (edycja czyli): tak patrzę że zrobiłem całkowity off topic. W takimrazie kosz chyba mi się należy ;)

Zapraszam do dyskusji. Ewentualnie PW.

Odnośnik do komentarza
Udostępnij na innych stronach

Dużo tych pytań, nie mogę się skupić ;)

Moje skromne testy były prowadzone właśnie pod kątem m.in. Duplicate dla nowych domen. Domeny były zarejestrowane w ten sam dzień, dokładnie ta sama treść wprowadzona w tym samym czasie, linkowanie prowadzone równolegle, ale stały na różnych IP. Były linkowane z tych samych i takich samych stron. Ani czas ani skala tego nie były na tyle reprezentatywne aby się z testami obnosić, ale wniosek był jeden: to była rzeźnia dla strony linkowanej z jednego IP i whois. Różnica kilkudziesięciu pozycji niżej. Kary za DCP się nie doczekałam do dziś.

Odnośnik do komentarza
Udostępnij na innych stronach

Duplicate content nie istnieje (nie dostaniesz za to bana, filtra czy cokolwiek innego) Jest tyle tręści powtarzających się w necie i nikt na tym nie cierpi. Sugerowanie, że G porównuje miliardy stron pod względem treści jest raczej żenujące (są stronki, które róźnią tylko linki w stopce i ładnie na necie wiszą)

Duplicat Content istnieje ale troche inaczej niż Ty sądzisz. Goo nie analizuje miliardów stron bo nie ma sensu. Jest to tylko strata mocy obliczeniowej. Mam swój algorytm do wyszukiwarki który ma analizować treść dwóch stron ale pod kątem updatu treści i trwało to dość długo. Przez co zrezygnowałem z tej opcji oceny strony. Przynajmniej narazie. Ale wracając do Goo. Najpierw dokonywana jest analiza tematyczna stron dopiero po tym porównywana jest zbieżność treści i to nie zawsze. Dopiero gdy zostanie przekroczony próg dopuszczalny.

I na 100% nie siedzi się w nim miesiącami

Nawet twórca algorytmu nie może zapewnić że wszystko będzie działać na 100% Tym bardziej szary podmiotek. I chodź napisałem w swoim słowniku że jest to mityczny filtr to w każdym micie jest coś z prawdy.

ważniejsza jest unikatowa nazwa domeny

Nimek wiele razy już mówiono że domene nie ma praktycznie znaczenia. I wg mnie przy hmm głębszym pozycjonowaniu IP ma jednak większe znaczenie niżeli domena.

przyznawanie różnorakich filtrów jest dość skomplikowane

Jest nie tyle co skomplikowane co zależne. Wątpie by Goo miało stałe filtry wg mnie tworzą sie one automatycznie. Przez połączenie cech stron A i B które mają filtr BC, CD i BC. Więc są ze sobą w jakimś stopniu powiązane ( a może przeceniam koderów Goo? ;) )

sprawdzanie whois i branie pod uwagę przy obliczaniu wartości linku

To już chyba jakaś choroba. Same linki, linki i jeszcze raz linki. A może Goo używa whois do badania zależności pomiędzy stronami a nie linkami. Takie coś jest dużo efektywniejsze. W słowniku( pojęcie dt. sandboxa ) napisałem takie coś obniża pozycje strony pod wiele fraz.. I według mnie do tego jest dokonywana analiza. Czyli stałe obniżenie pozycji nie dla frazy, a domeny. Jeżeli jest powiązana z czymś z czym nie powinna.

Pod tym względem G dopiero raczkuje.

Wątpie ale niechce mi sie już nic więcej pisać bo okienka mi nie starcza ;)

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

Wydaje mi się, że Google nie musi sprawdzać whois poprzez komendę whois. Wystarczy to, że dogadali się z Verisign i łączą się z ich bazą.

To jednak nie tyczy się domen .pl, tylko .com itp.., czyli tym zarządzanym przez Verisign.

Odnośnik do komentarza
Udostępnij na innych stronach

O. Coś nowego i świeżego na forum. ;)

Michał -> Dokładnie tak. Jest to najbardziej prawdopodobne. Ale czym dłużej siedzą w Polsce, tym większa szansa że dogadają się z NASKiem. To tylko kwestia czasu.

Nie należy przeceniać fenomenu algorytmów Google, bo w sieci jest (jak słusznie podsumował MMP) mnóstwo domen, wystarczająco dużo żeby zapis zbudowej z nich trójkątnej macierzy wymagał duuużej macierzy dyskowej i był baaardzo ciężki do obliczeń (a co dopiero aktualizacji).

NIEMNIEJ, nie należy też go bagatelizować, jak robi...

Duplicate content nie istnieje (nie dostaniesz za to bana, filtra czy cokolwiek innego) Jest tyle tręści powtarzających się w necie i nikt na tym nie cierpi.

... więc spróbuj zrobić identyczne strony. Mam strony (10 szt.) linkujące do siebie w gwiazdkę (no dobrze, z crosslinkingiem, sam udowadniałem jego szkodliwość ale nie wierzę żeby to było powodem). Strony są identyczne, poza akapitem kilkuset losowych słów. Pozycjonowane na to samo (testowe) hasło. I jak tu wytłumaczyć fakt, że jedna ze stron (uwaga, ZMIENIAJĄCA SIĘ co update - czyli co update losowa z puli 10-ciu) jest na b. wysokim miejscu, a reszty nie ma w pierwszym tysiącu wyników, mimo że wszystkie strony są w indeksie? Zgubna moc crosslinkingu? Tylko?

Sandbox nie istnieje - w każdym razie nie dostaje się go za zbyt dużo linków z jednym anchorem. Za za szybki przyrost linków itp. I na 100% nie siedzi się w nim miesiącami

Musisz chyba więcej w tym posiedzieć. Jeżeli chcesz, wrzucę Ci stronę do piaskownicy, o ile tylko nie jest wystarczająco silna. To fakt, nie ma sandboxa z piasku, ani fresh site bonusa o zapachu świeżej mięty, ale jest wyidealizowany wzór na naturalny cykl życia strony. I o ten wzór się całe Google opiera, co potwierdził Nawigator (jak sam przyznał) korzystając z rad cyt. "kilku mądrych osób z forum" wygrał konkurs francuski i niemalże wygrał konkurs polski.

Ip nie ma tak dużego znaczenia - ważniejsza jest unikatowa nazwa domeny

Oj, Panie Nimek, Panie Nimek... Jak na moje oko każda nazwa domeny jest unikatowa. ;)

Google nie jest jeszcze aż tak inteligentne, żeby odróżnić link płatny od nie płatnego

Nieprawda, Matt Cuts kazał oznaczać linki płatne przez nofollow. :D

Offtopic, czy widzieliście jak kilka dni temu Yahoo ślicznie nauczyło się czytać linki pośrednie i przemielone przez JS? ;)

G ma dość problemów z określeniem powiązania tematycznego linku żeby jeszcze zajmować się takimi pierdołami jak whois, które można zmieniać i różnicować do woli

I podobnie jak strukturę stron można zmieniać do woli, wcześniej jak zagęszczenie keywords można było zmieniać do woli, a jeszcze wcześniej strukturę head można było zmieniać do woli, tak teraz powoli będzie się (do woli) zmieniać whois. Nie zaszkodzi.

content jednak ma znaczenie - wbrew utartym opinią, że wystarczy BL do dobrej pozycji (...)

I to nie przez BL ani zmianę contentu, tylko przez MEGAPANEL, a do tego wkrótce dojdą bonusy za kasę wydaną w AdWords. Mam nadzieję że wszyscy już to widzą, w szczególności (sic!) to pierwsze.

Było offtopic. Dobranoc. Idę spać. :P

Pozdrawiam, J.

PS. Zgłupiałem - dlaczego w 'quote' forum nie przemieliło bbcode?

Odnośnik do komentarza
Udostępnij na innych stronach

PS. Zgłupiałem - dlaczego w 'quote' forum nie przemieliło bbcode?

Bo raz nie zamknołeś ;)

Ale czym dłużej siedzą w Polsce, tym większa szansa że dogadają się z NASKiem. To tylko kwestia czasu.

Domeny z Samoa osiągną za jakiś czas cene zbliżoną do polskich a tam Goo chyba nie ma swojej siedziby ;)

Offtopic, czy widzieliście jak kilka dni temu Yahoo ślicznie nauczyło się czytać linki pośrednie i przemielone przez JS?

Wydaje mi sie że google też to potrafi ale wymagało by to większej mocy przerobowej.

stopka usunieta z wpoodu wirusa na stronie docelowej

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności