>Есть лог за 10 дней. 1.2 Г.б. В нём есть порченная запись
>на которой sarg зависает. Как мона из такой громадины эту запись
>почикать или есть какой хитрый вариантик? Сколько времени такой файлик обрабатывает sarg?
Сейчас пишу перловский скриптик для преобразования squid лога в mysql базу и анализ уже с помощью мускула. Это делаю для собственных нужд. Возник вопрос: необходимо ли кому-то это, стоит ли это переводить из разряда для "себя" в разряд "для всех"?
Из плюсов такого подхода я вижу: преобразование в мускул лога занимает столько ж сколько создать с помощью sarg простейший отчёт (index only), а анализ уже такой базы выполняется на несколько порядков быстрее. Можно каждый день складывать в базу логи, а в конце месяца за пару минут получить отчёт. И база получается 65% от размера лога (на 35% меньше).
Из минусов: необходимо держать мускул. Не законченость скрипта анализа.