Skocz do zawartości

usuwanie stron z googla ktore maja parametr/-y w URL-u


zytos

Rekomendowane odpowiedzi

Witam,

Czy ktoś z grupowiczów usunął skutecznie z Google strony które w adresie mają parametr-y?

Próbuje usunąc strony które po index.php mają ?parametry.

Przez kilka miesięcy robiłem to przez zwracanie kodu 404 jesli URL ma w sobie parametry

ale to chyba nie jest kuteczne bo cały czas strony z parametrami są w googlach.

Spróbowałem robić to też przez robots.txt + system usuwania stron googli ale tym sposobem nie mozna

zastosować hurtowego usuwania czyli usunięcia stron które w URL po index.php mają jakiekolwiek

parametry. Ten system usunie tylko konkretnie podany URL ale ja tych stron mam dużo dużo więcej niż 1.

Niby podane jest w pomocy googli ze mozna zastosowac WILDcard * ale jak go zastosowałem

to system googli nie chciał zaakceptowac takiego robots.txt.

Czy ktoś z szanownych grupowiczów spotkał się z podobnym problemem?

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 tygodnie później...

Chodzi mi o usunięcie stron www.domena_jakas.pl/index.php?% czyli wszystkich które po index.php w takim adresie mają jakies parametry.

Jak teraz wejdzie się na taki adres to otworzy sie strona z index.php bez względu na to ze w adresie

sa jakies parametry - one nie maja wpływu na zawartosc stron.

Kiedyś strony były budowane dynamicznie na podstawie parametrów z URL, teraz zrobione są statyczne.

Chce usunac te adresy które mają paprametry w URL bo ogladacz wejdzie po takim adresie z googli

liczac ze dostanie to co chciał a jak ich nie usune to mu się sie pojawi strona głowna i jak jest nicierpliwym

lub mniej zaawansowanym komputerowo daruje sobie dlasze przegladanie twierdzac ze cos jest nie tak.

Zatem przekierrrowanie 301 moze i z korzysćia jest po bede miał wiecej stron zaindeksowanych ale moze i nie bo przekierowanie z ok 2k stron z parametrami na jedna i ta sama jest dziwnym rozwiazaniem. Wszystkie omwaiane tutaj URL-e sa z jednej domeny.

Ja zastosowałem ze jak google wejdzie z linka ktory ma w URL-u parametry dostanie 404 ale odnosze wrazenie ze on wchodzi dostaje 404 ale i tak strona dalej jest w googlach i potem znowu wchodzi i znowu a strona i tak jest w googlach jak była.

W tym automatycznym systemie próbowałem usunąc wszystkie strony z parametrem uzywając wildcard w postaci * ale jak użyłęm wildcard to ten system nie akceptował mi takiego robots.txt choc pisza ze powinno byc ok. Nie wiem zatem czy tam jakies bzdury piszą czy ja cos zle zrobiłem a nie bede pojedynczo wpisywał 2k linków.

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności