squid и сайты - редиски
Народ помогите.
Squid Не блокируются некоторые сайты. в squid.conf пишу acl ads dstdomain ****** http_access deny ads не получается. Далее acl Bad url_regex -i '/etc/squid/site/badsite' http_access deny Bad Так пробую, всеравно нефига. (Разумеется в файле badsite указываю ******) Многие сайты блокируются без проблем, но некоторые не хотят :( Такие как ****** например. Трафик летит гигабайтами, нужно срочно блокнуть :( |
Блин я тупой. :biggrin:
Разобрался. Как бы топик стереть. :sorry: |
Ладно, если топ стереть нельзя, тогда уж ещё вопрос.
я все сайты плохие блокирую методом acl Bad url_regex -i '/etc/squid/site/badsite' http_access deny Bad верно ли я делаю ? Или сайты нужно блокировать acl ads dstdomain ****** http_access deny ads И ещё..... Установил Sarg Нужно что бы он выводил статистику каждые 15 минут. Ну с этим не проблема с помощью crontab-а Но ещё хотелось бы настроить систему так, что бы sarg вел статистику по каждому дню. Что бы в конце месяца можно было посмотреть кто сколько скачал в определенный день, и за весь месяц. Была идея сделать по такой схеме. Но запоролся так как с английским туго. В crontab-e дать задание запускать date > x.x потом запускать sarg -d < x.x но формат в котором записывается date не подходит для sarg-a. Подскажите если не сложно как быть. Заранее спасибо. |
...блокировка сайтов по регулярным выражениям работает медленнее и съедает больше ресурсов...
|
А если использовать системы контроля контента типа squidGuard или dansguardian.
Цитата:
|
Цитата:
Код:
host ~ # cat /etc/cron.daily/sarg.daily ps. маны рулят |
Зря надеешься :)
Ладно постараюсь сам разобратся, не буду докучивать. Linux без посторонней помощи осваивать сложно, это не форточки с интуитивным интерфейсом :) |
|
Время: 16:21. |
Время: 16:21.
© OSzone.net 2001-