Skocz do zawartości

Chyba wiem jak G znajduje SWL


k0l3c

Rekomendowane odpowiedzi

Oczywiście pomijam schematy wśród stron takie jak zaspamiona stopka.

Wydaje mi się, ze swl jest dobry jak się go potrafi używać i wyświetlane linki są dobrze wkomponowane w szablon strony.

Np. nie wszystkie w jednej linii, tylko dodane do sidebara jako partnerzy i jakoś to razem wszystko wygląda.

No więc to co dzisiaj przez przypadek zauważyłem na przykładzie seomata, to fakt, że robot google przeszukiwał jego pliki konfiguracyjne na moim serwerze, te które trzeba dograć aby wszystko działało. (nie mam pojęcia jak je znalazł pomimo ich długiej i losowej w sumie nazwie dla każdego użytkownika)

I teraz powiedzmy że analizuje zawartość (ma jakąś bazę schematów) lub robi jakiś test, zależnie od swl.

W tym przypadku np wchodzi w katalog o tej samej nazwie co plik który przeszukiwał i znajduje tam plik txt w którym są absolutnie wszystkie linki jakie

mają się wyświetlać na podstronach.

Widzi ich setki czy tysiące i już wie co jest grane. Ban

Przyszłość widzę właśnie na selekcji stron, gdzie linki są rzeczywiście dobrze wkomponowane i blokowaniu dostępu robotom do miejsca gdzie znajduje się konfiguracja o liście linków nie wspominając.

penguins.jpg

Odwiedzaj regularnie mój blog o seo na lukaszt.pl podobno warto ;)

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 40
  • Dodano
  • Ostatniej odpowiedzi

(nie mam pojęcia jak je znalazł pomimo ich długiej i losowej w sumie nazwie dla każdego użytkownika)

A katalog root masz w ogóle zabezpieczony ?

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli robot Google'a "zajrzał sobie" do plików konfiguracyjnych SWLa to znaczy, że ktoś mu w tym pomógł (nieuwaga też jest formą pomocy). :)

Ja na przyszłość patrzę nieco inaczej. Nie oszukujmy się, stwierdzić automatycznie(i to z dużym prawdopodobieństwem), że na danej domenie jest SWL można bez wielkiej gimnastyki.

Ryzyko raczej nie będzie leżało w tym, że bot "przełamie" wyszukane zabezpieczenia strony udającej, że jest "czysta" (bo niby jak ma dobrze udawać, skoro z drugiej strony chce, żeby Google jednak te linki zauważył ;) ), tylko w czynniku ludzkim i masowym nieumiejętnym wykorzystaniu niskiej jakości, tanich źródeł linków.

Raczej do tego Google dąży - zasiania niepokoju, dezorientacji, zmniejszenia zaufania do tego, co jest tanie czy wspólne. I koszty pozycjonowania rosną bardzo szybko...

Odnośnik do komentarza
Udostępnij na innych stronach

Rysio - gogle doskonale wie na których stronach jest swl(i pewnie jaki jest też wie, mowa o publicznych nie o prywatnych).

Jeśli G. by chciało to w miesiąc wycieło by wszystkie storny swl. Ale nie chce :D

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli G. by chciało to w miesiąc wycieło by wszystkie storny swl. Ale nie chce

Nie chce. Woli nakładać filtry za nienaturalne linki a ludziki sami zgłoszą im wszystkie strony/zaplecza. :)

Głównym celem wyszukiwarek NIE jest dostarczanie trafnych wyników. Głównym celem wyszukiwarek jest dostarczanie zysku.

 

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli G. by chciało to w miesiąc wycieło by wszystkie storny swl. Ale nie chce

Nie chce. Woli nakładać filtry za nienaturalne linki a ludziki sami zgłoszą im wszystkie strony/zaplecza. :)

Oj, nie tak szybko ;) Powód życia takich stron jest zupełnie inny ;)

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Poszukiwanie SWLa na stronie to banalna czynność - sam to zrobiłem. Starczy odwiedzić kilka podstron samego serwisu i szukać w treści bloków linków umieszczonych w podobnym miejscu strony. Jeżeli większość z tych linków z każdej podstrony linkuje do innej domeny to mamy SWLa (np. w odróżnieniu od linków sidewide). Banery też odpadają, bo z reguły mają grafikę lub dłuższy tekst, który spowoduje "rozklejenie" bloków linków.

W ten sposób wyłapiesz nie tylko SWle publiczne ale i prywatne. Przy okazji pytań o footer i sidebar - dla robota to jest to samo. Jak chcecie dobrze używać SWLa rozrzucajcie linki po stronie.

logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Odnośnik do komentarza
Udostępnij na innych stronach

Woli nakładać filtry za nienaturalne linki a ludziki sami zgłoszą im wszystkie strony/zaplecza.
I to jest potężne narzędzie...

Poza tym Google zatrudnia wielu pracowników, więc nie możemy wykluczyć, że też "ręcznie" wykrywają strony należące do tego typu systemów przynajmniej tych publicznych po przez zamieszczenie w nich własnych domen "szpiegów" które są w związku z tym linkowane z SWL'a. I wtedy nawet najbardziej wymyślne zabiegi ze strony wydawcy SWL'a/użytkownika nie pomogą w ukryciu domen w nim uczestniczących.

Do tego Google ma odpowiednie bazy danych przy których wykorzystaniu "wiedza co słychać" i sami pozycjonerzy w tym pomagają. Dziwnym trafem nagle na pewnych hostingach = IP, DNS, pojawiają się setki serwisów tego samego typu jak precle i katalogi np wp-kat :nie_powiem: wiec wystarczy przeanalizować schematy i wyniki są gotowe = filtry.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Radek -> masz rację.

Mion -> linkowanie własnej domeny to najprostszy i najtańszy sposób wycięcia swl'i, sposób o którym pisało się 5 lat temu. Jeśli do dzisiaj google tak nie zrobiło to musza mieć ku temu inne - ważniejsze powody.

SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli do dzisiaj google tak nie zrobiło to musza mieć ku temu inne - ważniejsze powody

Co Google zrobiło / nie zrobiło to nie wiem i raczej mało kto spoza czołówki inżynierów Google o tym wie, ale wiem co teoretycznie mogli zrobić i mogą zrobić teraz. Zwłaszcza teraz jak wprowadzają swoje zmiany w walce z pozycjonowaniem - kiepskim pozycjonowaniem.

HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel
Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii

Odnośnik do komentarza
Udostępnij na innych stronach

Radek skad pewnosc ?

Moim zdaniem mijasz sie z prawda - z testów jakie widzialem - czyli np prosty test :

Generujemy 10 domen wrzucamy je na publiczne hostingi (godaddy i inne zaufane) - kazdy w innym rejestratorze, inne whois, inna data zakupu

Teraz generujemy tresc statyczna (pliki .html + linki w ok rand (5,15) % podstron w domenie , site domeny rand (20,100 ) .. kazda podstrona ma zupelnie inny kod html (bazujacy na pobieraniu kodu html losowej domeny z google ) , losowym wstawieniu tokenow (tresc, wigety itd... )

I tak samo Google wykrywal tego typu stron (niewazne czy linki wychodzace byly do 1 czy do 20 domen , czy linki wychodzace byly mieszane z linkami zaufanymi (np wikipedia) , niewazne czy byly brandowe czy long tailowe anchory)

Odnośnik do komentarza
Udostępnij na innych stronach

W ten sposób wyłapiesz nie tylko SWle publiczne ale i prywatne.

Już nawet skrypt prywatnego SWL w cenie 100 zł ma możliwości rozłożenia linków po stronach, ba, definiować określone linki na określonych podstronach ( jak statyczne tak i rotacyjne) w określonych miejscach. Może to być w każdym przypadku ( na każdej podstronie) inny schemat, nie mówię już o rozbiciu całych bloków na pojedyncze-podwójne linki. Dodawanie treści do i po linku, i tak jak mówi Marcin mieszanie linków pozycjonujących z linkami do tłustych stron.

Radek jesteś kolejny raz mocno do tylu z wnioskami. Sitewide w footer i sidebar to walą dzieciaki.

Odnośnik do komentarza
Udostępnij na innych stronach

@IT_managment ale to nie jest klasyczny SWL. Podobną strukturę linków możesz mieć np. na forum. Takie rzeczy można wykryć po nasyceniu linkami i frazami exact match z takich podstron ;), badaniem uporządkowania tekstu itd. Ale to już zupełnie inna bajka.

@MaxPan - dokładnie, linki nie powinny być skupiane w jednym miejscu. Co do Twojej uszczypliwości to już sobie odpuszczę - to jest odpowiedź na pytanie które ostatnio często pada. a nie moje odkrycie roku ;)

logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności