Что касается поисковиков у многих есть функции безопасного поиска, только у одних это задается параметром в запросе, у других через куки,
Вот про это по подробней можно. Меня только гугль интересует.
Почему бы и нет.
Что касается куков, тут ничего особо не поделаешь, а вот с Google.....
Эксперимент.
Заходим в Google.
Идем в настройки поиска, выключаем всякую фильтрацию.
Теперь вводим "пopно" в строке поиска, ба, а сколько то ссылок посыпалось.
теперь в адресной строке в конец добавим
&safe=vss
жмем Enter, и ... не одной ссылки.
Такую операцию можно проделывать разными способами, самописным редиректором Squid, или с помощью самого Dansguardian
Тем более что эти правила уже есть в urlregexplist, но они по-умолчанию закомментированы.
для картинок google их там два:
(^http://[0-9a-z]+\.google\.[a-z]+[-/%.0-9a-z]*/images\?)(.*)(&?)(safe=[^&]*)"->"\1\2\3"
"(^http://[0-9a-z]+\.google\.[a-z]+[-/%.0-9a-z]*/images\?)"->"\1safe=vss&"
ничто не мешает дописать свои.
Есть еще интересный файл contentregexplist с помощью него можно заменять матерные слова на страницах.
:) как только начинал работать в школе, еще до установки Dansguardian, написал на perl интересный скрипт - редиректор для squid, код настолько кривой, что просто ужас, конечно сейчас если бы писал сейчас, то код лучше бы был.
Его работа заключалась в следующем,
все URL squid отдает редиректору прежде чем отправить в интернет,
редиректор в том случае если URL был запросом к поисковику, и содержал русские символы - выделял строку запроса, анализировал на соответствие заранее составленному списку плохих слов.
Если было соответствие, то случайным образом из другого списка с хорошими фразами выбиралась фраза, запрос модифицировался и Url передавался обратно SQUID, причем попутно редиректоры вели логи где писали запрос, логин, время.
Надо было видеть удивление некоторых учеников...
когда вместо *** им выдавалась страницы с левыми результатами.