Powrócił mi problem parametrem dodawanym przez G.Ads. Znowu wywoływał błąd 404. Firma informatyczna zrobiła poprawkę, ale znowu zrobili tylko łatkę, na to co ja im podsyłam.
Kazałem im zrobić tak żeby przepuszczało wszystkie parametry, ale usłyszałem, że to zły pomysł, bo się będą tworzyć zduplikowane podstrony w Google.
Google - w sensie wyszukiwarki - chyba radzi sobie już z takim czymś? Ewentualnie można je zablokować chyba w robots.txt.
Nie pamiętam już teraz dokładnie, ale tak mi się kojarzy, że to kiedyś był problem na przykład przy skryptach bez mod rewrite, ale teraz chyba już nie jest?
User-agent: *
Disallow: /*?*
(jak to zapisać?) w robots.txt?
albo może w php - jeśli url zawiera "?" echo
<meta name="robots" content="noindex" />
Czy szukać jakichś innych rozwiązań, żeby problem się nie powtórzył?