Кто нибудь создавал нормальный проверенный файл robots для дельфина,
очень много дубликатов страниц в дельфине, не говоря про то, что часто в поиске видишь lang в url проиндексированных страниц.
browse.php?
browse/
calendar.php?
categories.php?
search.php?
tags.php?
viewFriends.php?
и др.
У меня на сайте не так много контента и зарегистрированных людей всего 800 но
посмотрел в яндекс вебмастере, всего загружено яндексом 120.000 страниц этож перебор, в каждой строке вышеперечисленной по 5000-10000 загруженных страниц
так и в бан не далеко попасть.
Сам не очень сильно разбираюсь в robots поэтому запортить боюсь.