The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]




Версия для распечатки Пред. тема | След. тема
Новые ответы [ Отслеживать ]
Проблема с access.log в pipe-канале (fifo), !*! Turbid, 19-Июн-07, 16:37  [смотреть все]
Здраствуйте.

Прикручиваю к проксику статистику как это описано тут: http://www.uvsw.narod.ru/project/squid2mysql.html

Проблемма стала такая - проксик отваливается при обращении к логу, в /var/log/messages пишется следующее:

Jun 19 10:31:22 su kernel: pid 995 (squid), uid 100: exited on signal 6
Jun 19 10:31:22 su (squid): logfileWrite: /usr/local/squid/logs/access.log: (32) Broken pipe
Jun 19 10:31:22 su squid[929]: Squid Parent: child process 995 exited due to signal 6
Jun 19 10:31:25 su squid[929]: Squid Parent: child process 1009 started

Если pipe заменяю на обычный лог, то все работает.

Очень надеюсь на помощь.

  • Проблема с access.log в pipe-канале (fifo), !*! Newcomer, 17:23 , 19-Июн-07 (1)
    >Здраствуйте.
    >
    >Прикручиваю к проксику статистику как это описано тут: http://www.uvsw.narod.ru/project/squid2mysql.html
    >
    >Проблемма стала такая - проксик отваливается при обращении к логу, в /var/log/messages
    >пишется следующее:
    >
    >Jun 19 10:31:22 su kernel: pid 995 (squid), uid 100: exited on
    >signal 6
    >Jun 19 10:31:22 su (squid): logfileWrite: /usr/local/squid/logs/access.log: (32) Broken pipe
    >Jun 19 10:31:22 su squid[929]: Squid Parent: child process 995 exited due
    >to signal 6
    >Jun 19 10:31:25 su squid[929]: Squid Parent: child process 1009 started
    >
    >Если pipe заменяю на обычный лог, то все работает.
    >
    >Очень надеюсь на помощь.

    Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причине, скорее всего по ошибке, и на другом конце у сквида выскакивает сигнал  SIGPIPE. То есть надо искать причину в парсере. Скорее всего, там имеет место переполнение буфера при разборе слишком длинной строки лога.

    Немного не по адресу вопрос: а зачем надо было менять лог-файл на трубу? Так основной функционал - проксирование - ставится в прямую зависимость от второстепенного,  и тем самым понижается общая надежность системы. Гораздо проще и надежнее периодически распарсивать и обнулять файл лога.
    Когда я изобретал свой велосипед - считалку статистики сквида - я поначалу поступил так же, заменив лог-файл на трубу и повесив на него парсер. Однако после того, как осознав, что косяки парсера валят сам сквид, перешел на вариант с разгребанием и обнулением файла лога. Более того, я и от постоянного сидения парсера демоном отказался и стал дергать его из крона.

    Удачи
    PS: кстати, в своем парсере я таки решил проблему с разбором некорректных строк, уже 3 год он пашет и ни разу не свалился.
    Если интересно, могу поделиться своим велосипедом.

    • Проблема с access.log в pipe-канале (fifo), !*! Turbid, 18:10 , 19-Июн-07 (2)
      >Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причине

      Хм, в том-то все и дело, что парсер не причем - я его вообще закоментировал на время в squid.sh, т.е. pipe никто не трогает кроме самого squid'а.

      >надежнее периодически распарсивать и обнулять файл лога

      А если хочется чтобы это было не периодически, а постоянно?

      >Если интересно, могу поделиться своим велосипедом.

      Буду очень признателен если поделитесь.


      • Проблема с access.log в pipe-канале (fifo), !*! Newcomer, 11:01 , 20-Июн-07 (3)
        >>Сие сообщение значит, что ваш парсер отваливается от трубы по какой-то причине
        >
        >Хм, в том-то все и дело, что парсер не причем - я
        >его вообще закоментировал на время в squid.sh, т.е. pipe никто не
        >трогает кроме самого squid'а.
        >
        "It takes two to tango" -  в смысле чтобы писать в трубу, обязательно должен быть тот, кто в из нее читает. Концы трубы с обеих сторон должны быть открыты ( сис. вызов open() ).
        Для сквида надо, чтобы читатель был запущен раньше него и висеть на трубе на вызове read(). Иначе вылетит ошибка по сигпайпу, что имеет место в вашем случае, либо, если оба конца открыты, писатель заблокируется, пока читатель не начнет из него читать (точно не помню).

        >>надежнее периодически распарсивать и обнулять файл лога
        >
        >А если хочется чтобы это было не периодически, а постоянно?

        Все зависит от того, какова допустимая задержка обновления информации в базе. Можно парсер дергать из крона хоть каждую минуту, и тогда актуальность данных в базе будет с точностью до  минуты.

        У меня сейчас парсер вызывается раз в час, этого, в принципе хватает.


        >>Если интересно, могу поделиться своим велосипедом.
        >
        >Буду очень признателен если поделитесь.

        ТТХ велосипеда:
        парсер, вызываемый из крона, пишет в базу на постгресе, далее, посредством SQL-ных скриптов, также вызываемых из крона, информация уплотняется - трафик и время группируются по сайту. Уплотненная информация складывается в долговременный архив daily_logs, подробная информация, накопленная за сутки, убивается.
        При помощи sql-ных скриптов генерируются суточные, недельные и месячные отчеты, которые складываются на web-сервер и могут посылаться почтой.
        Еще можно в указать friendly_nets, трафик из которых считать не требуется.

        Все это добро в виде исходника парсера, набора sql-ных, шелловских скриптов и файла кронтаба. Из доков только небольшой readme.

        Куда слать?




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру