Skocz do zawartości

usuwanie stron z google przez automatyczny system


piotrek

Rekomendowane odpowiedzi

Od czasu do czasu pojawiają się na forum pytania jak usunąć z google własną stronę.

Jednym z najsuteczniejszych działań jest ustawienie jej noindex oraz zgłoszenie strony do automatic URL removal system System usuwa zgłoszone strony do 5 dni roboczych a jako potwierdzenie dostajemy mail od Google :hello:

The following urls/messages have been removed:

beta.webwweb.com/url_details.php?id=10 NOINDEX

beta.webwweb.com/url_details.php?id=11 NOINDEX

beta.webwweb.com/url_details.php?id=12 NOINDEX

beta.webwweb.com/url_details.php?id=13 NOINDEX

beta.webwweb.com/url_details.php?id=14 NOINDEX

beta.webwweb.com/url_details.php?id=16 NOINDEX

System wymaga założenia w nim swojego konta ale to chyba w niczym nie przeszkadza.

- buduj content metodą drag&drop i łatwo zgarnij SEO backlinki z msDrop

- wideoporadniki jak korzystać z msDrop

Odnośnik do komentarza
Udostępnij na innych stronach

  • Odpowiedzi 52
  • Dodano
  • Ostatniej odpowiedzi

To jest bardzo przydatne info

Dzieki

Pozdrawiam

Zgadza sie, wiec przyklejam... - Michal

Firmę w Polsce utrzymuje czynną od 1997 roku w Hamburgu od 2008 Roku więc nie robią na mnie wrażenia awatary i linki w stopce. Zajmuje się od zarania początków Black Hat Seo. Mam prawo do zapomnienia. Niech się firma Google zajmie sztuczną inteligencją zanim  Sam Altman ich wyprzedzi :) Moje stare konto https://www.forum.optymalizacja.com/profile/21-kill-bill/  :( boże jaki młody byłem i głupi. Wróciłem i wchodzę z drzwiami nie drzwiami.

Odnośnik do komentarza
Udostępnij na innych stronach

Można, można - usuwałem na kilka sposobów strony z google (o czym pisałem na forum) aby pozbywać się nałożonych na nie filtrów, ale obecnie nie mam jednoznaczych wniosków.

na jaki temat nie masz Piotrze jednoznacznych wniosków?

Pozdr

J.

Ciupagi z Helu na export

"Jak żech cyckoł (ssał) ta kartka, toch myśloł, że to jest kotlet. Trocha było ciężko, bo był niedosolony" PAP

Odnośnik do komentarza
Udostępnij na innych stronach

jednoznacznych wniosków

Mogłem tego nie pisać, ale dobra :hello:

Przed "wielkim spadkiem" usunięcie strony z indexu na którą był założony filtr i przywrócenie jej z powrotem za pomocą odpowiedniej ilości linków powodowało pozbycie się filtru na słowo czy frazę. I udało mi się to dwoma różnymi sposobami usuwania z indexu.

Po "wielkim spadku" wiele osób zauważyło że "odklejenie się" anchorów z linków od stron linkowanych to jakieś głębsze zagadnienie. Nie tyle wygląda to na filtr na słowa co utratę siły "klejenia" przez niektóre serwisy. Z tego co widzę zbanowane strony także nie mają siły "przyklejania" anchorów z linków.

Logika podpowiada, że na dzień dzisiejszy należałoby - jeśli się jest właścicielem i linkowanego i linkującego serwisu - usunąć oba i ponownie zindeksować aby "na czysto" wejść do serwisu.

Na przykład w webwweb.com stosuję osobną bazę w której trzymam zbanowane adresy www i porónuję je z dodawanymi, dlatego jeśli ktoś dostał bana to nie ma możliwości dodać tego adresu ponownie bo adres jest przchowywany. Google nie musi trzymać adresów www bo ma system checksum, wiec wystarczy, że w osobnej bazie przez bliżej nieokreślony czas będzie przechowywał ich wartości więc usunięcie z indexu adresu i przywrócenie go z powrotem spowoduje nadanie mu identycznych "restrykcji".

Teoretyczne rozwiązanie. O ile w webwweb.com przechowuję adresy na zasadzie zbabowany.adres.pl i nie ma możliwości dodania niczego w tej domenie czyli wykluczam zarówno www. zbanowany.adres.pl jak i zbanowany.adres.pl/jakakolwiek.strona.htm to checksum jest ściśle przypisany do konkretnego adresu o konkretnej długości. Teoretycznym rozwiązaniem na pozbycie się filtra byłoby przeniesienie serwisu do subdomeny bądź katalogu. Usunięcie wszystkich linków prowadzących do starego adresu, założenie przekierowania tylko dla przeglądarek ze starego na nowy i układanie nowej pajęczyny linków do nowego adresu.

Skąd google mają wiedzieć że to moja własność?

możesz usunąć każdą stronę znajdującą się w indexie jeśli ma zapięte NOIDEX bądź która odpowiada błędem HTTP404

Jest też ciekawostka - o ile ktoś chce przetestować - o czym nie pisałem w pierwszym poście - zgodnie z moim życzeniem z google została usunięta także ta strona:

pozycjonowanie.stron.pl/?m=webwwebnews&id=txt_417 NOARCHIVE

- buduj content metodą drag&drop i łatwo zgarnij SEO backlinki z msDrop

- wideoporadniki jak korzystać z msDrop

Odnośnik do komentarza
Udostępnij na innych stronach

Usuwalem strone za pomoca ich automatycznego systemu, jednak przywrocenie jej nie okazalo sie takie latwe. Mimo iz googlebot bywal codziennie i tagi byly ustawione na index, follow to nie chceil jej zaindeksowac.

Napisalem do google i wytlumaczyli, ze strony usuwane za pomoca formularza zostana przywrocone najwczesniej za 90 dni

Thank you for your note. If you processed your meta tags through our

public removal tool for your site, the pages you removed will be excluded

from our index for at least 90 days even if you've removed your robots.txt

file. We're

not able to manually add these pages to Google. We understand that this

may be inconvenient to you, and we appreciate your patience during this

process.

co ma do tego robots.txt to nie wiem niestety

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 miesiące temu...
  • 3 tygodnie później...

Znowu stary wątek odkopię...

Zgodnie z informacjiami na stronie Google usuniecie strony trwa przez 180 dni, i co 180 dni jest sprawdzane, czy dalej ma nie być indeksowana na podstawie pliku robots.txt

Note: If you believe your request is urgent and cannot wait until the next time Google crawls your site, use our automatic URL removal system. In order for this automated process to work, your webmaster must first create and place a robots.txt file on the site in question.

Google will continue to exclude your site or directories from successive crawls if the robots.txt file exists in the web server root. If you do not have access to the root level of your server, you may place a robots.txt file at the same level as the files you want to remove. Doing this and submitting via the automatic URL removal system will cause a temporary, 180 day removal of your site from the Google index. (Keeping the robots.txt file at the same level would require you to return to the URL removal system every 180 days to reissue the removal.)

A nie orientuje się ktoś, czy samo wklepanie Disallow: / do robots.txt też spowoduje, że robot nie odwiedzi strony przez kolejne 180 dni?

Odnośnik do komentarza
Udostępnij na innych stronach

no to ja wsrod 470 podstron, z szybko dosc rosnaca ich iloscia, mam zaindeksowane 110 podstron starych, ktorych chcialbym sie pozbyc z indeksu.

Mam usuwac recznie jedna po drugiej? Czy jakos mozna szybciej, hurtowo? Pliki sa w jednym katalogu zmieszane z tymi co maja zostac, wiec katalogu nie moge usunac.

I po jakim czasie bedzie efekt i czy juz skuteczny na stale? Bo te 110 stron raz mi sie pojawia w ineksie, to znow zupelnie znika... :

i kwestia jeszcze jedna... jak przy usuwanie wybiore opcja brzmiaca jakos tak "anything associated with this page" a te 110 stron to jest stworzonych na jednym pliku php ze zmiennymi [(...)/plik.php?zmienna=1&druga=2], to jak wybralem tą opcje i podalem tylko adres do pliku "plik.php", ktory zwraca 404, to zostaną usuniete wszystkie strony?

Przy czym kopia tych 110 podstron w Google wyglada nieco inaczej, gdyz

jak normalnie jest przy innych kopiach

"Oto kopia strony [...] zapisana przez G o o g l e w 6 Maj 2005 18:00:24 GMT."

to tu jest bez daty i nieco inaczej sformulowane:

"Oto kopia strony [...] zrobiona przez G o o g l e."

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 miesiące temu...

Apropos usuwania stron z google to mam następujący problem. Straciłem dobrze wypozycjonowany adres, cała strona została usunięta z serwera, wstawiłem ją ponownie ale tym razem na wykupiony serwer i ... została zaindeksowana jako kopia przy czym dostała identyczny pr jak pod starym adresem i pr ten nadal rośnie, (pewnie te pr nic nie są warte przy linkowaniu bo to kopia). Jako kopia znajduje się w google na około 60 miejscu pod frazami kluczowymi pod którymi była 1,2 pomimo odbudowania sieci linków. Czy jest możliwe, że google po jakimś tam pół roku całkowicie "zapomni" o tej starej stronie i mój nowy adres potraktuje jako główny serwis czy też na zawsze pozostanie to kopią?

Z góry dziękuję za wypowiedzi

Prawdziwy inżynier to taki, który unika drobnych błędów na drodze do wielkiej katastrofy.

Odnośnik do komentarza
Udostępnij na innych stronach

Czy jest możliwe aby dowolny użytkownik mógł dodać stronę do automatycznego systemu usuwania stron w G:

Mam podejrzenia że ktoś właśnie dodał moją domenę do owego systemu.

Owocem czego jest brak informacji o domenie i jej subdomenach.

Krótko mówiąc - poleciały wszystkie serwisy z jednej domeny.

I raczej nie jest to ban, bo niektóre subdomeny dopiero nie dawno zostały dodane i zaindexowane.

Dzisiaj okazało się że brak jakichkolwiek danych na DC.

Ktoś spotkał się już z podobnym problemem?

Największą głupotą jest uczenie się tego, co potem trzeba zapomnieć [...]
- Miarą mówcy nie jest ten kto mówi, lecz ten co słucha [...] / Platon (ok. 437 - 347 p.n.e.)

Drogi wszechświecie, przestań no lecieć w kulki!

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności