The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Выпуск HTTP/TCP-балансировщика HAProxy 2.0

20.06.2019 12:05

Опубликован релиз балансировщика нагрузки HAProxy 2.0, позволяющего распределять HTTP-трафик и произвольные TCP-запросы между группой серверов, учитывая множество факторов (например, проверяет доступность серверов, оценивает уровень нагрузки, имеет средства противостояния DDoS) и проводит первичную фильтрацию данных (например, можно разбирать HTTP-заголовки, отфильтровывать передачу некорректных параметров запроса, блокировать подстановку SQL и XSS, подключать агенты обработки контента). HAProxy также может применяться для координации взаимодействия компонентов в системах на базе архитектуры микросервисов. Код проекта написан на языке Си и поставляется под лицензией GPLv2. Проект используется на многих крупных сайтах, включая Airbnb, Alibaba, GitHub, Imgur, Instagram, Reddit, StackOverflow, Tumblr, Twitter и Vimeo.

Ключевые особенности выпуска:

  • Представлен новый API Data Plan, позволяющий на лету управлять настройками HAProxy через REST Web API. В том числе можно динамически добавлять и удалять бэкенды и серверы, создавать ACL, изменять маршрутизацию запросов, изменять привязки обработчиков к IP;
  • Добавлена директива nbthread, позволяющая настроить число потоков, используемых в HAProxy для оптимизации работы на многоядерных CPU. По умолчанию число рабочих потоков выбирается в зависимости от доступных в текущем окружении ядер CPU, а в облачных окружениях по умолчанию устанавливается один поток. Для задания жёстких лимитов добавлены сборочные опции MAX_THREADS и MAX_PROCS, ограничивающие верхний предел на число потоков и процессов;
  • Упрощено использование директивы bind для привязки обработчиков к сетевым адресам. При настройке теперь не обязательно определение параметров процесса - по умолчанию соединения будут распределяться по потокам в зависимости от числа активных соединений.
  • Упрощена настройка логов при запуске в изолированных контейнерах - лог теперь можно направить в stdout и stderr, а также в любой существующий файловый дескриптор (например, "log fd@1 local0");
  • Включена по умолчанию поддержка HTX (Native HTTP Representation), позволяющего обеспечить балансировку при применении расширенных возможностей, таких как end-to-end HTTP/2, Layer 7 Retries и gRPC. HTX не заменяет заголовки по месту, а сводит операцию изменения к удалению и добавлению нового заголовка в конец списка, что позволяет манипулировать любыми расширенными вариантами протокола HTTP, сохраняя исходную семантику заголовков и позволяя добиться более высокой производительности при трансляции HTTP/2 в HTTP/1.1 и наоборот;
  • Добавлена официальная поддержка режима End-to-End HTTP/2 (обработка всех стадий в HTTP/2, в том числе обращений к бэкенду, а не только взаимодействие прокси с клиентом);
  • Реализована полная поддержка двунаправленного проксирования протокола gRPC c возможностью разбора потоков gRPC, выделяя отдельные сообщения, отражая gRPC-трафик в логе и отфильтровывая сообщения при помощи ACL. gRPC позволяет организовать работу микросервисов на различных языках программирования, которые взаимодействуют между собой при помощи универсального API. Сетевое взаимодействие в gRPC реализовано поверх протокола HTTP/2 и базируется на применении Protocol Buffers для сериализации данных.
  • Добавлена поддержка режима "Layer 7 Retries", позволяющего отправлять повторные HTTP-запросы в случае программных сбоев, не связанных с проблемами установки сетевого соединения (например, при отсутствии ответа или пустого ответа на POST-запрос). Для отключения режима в опцию "http-request" добавлен флаг "disable-l7-retry", а для тонкой настройки в секциях defaults, listen и backend появилась опция "retry-on". Доступны следующие признаки для повторной отправки: all-retryable-errors, none, conn-failure, empty-response, junk-response, response-timeout, 0rtt-rejected, а также привязка к возвращаемым кодам состояния (404 и т.п.);
  • Реализован новый менеджер процессов (Process Manager), позволяющий настроить вызов внешних исполняемых файлов с обработчиками для HAProxy. Например, в виде такого внешнего обработчика реализован API Data Plan (/usr/sbin/dataplaneapi), а также различные движки Offload-обработки потоков;
  • Для .NET Core, Go, Lua и Python добавлены биндинги для разработки расширений SPOE (Stream Processing Offload Engine) и SPOP (Stream Processing Offload Protocol). Ранее поддерживалась разработка расширения только на Си;
  • Добавлен внешний обработчик spoa-mirror (/usr/sbin/spoa-mirror) для зеркалирования запросов на отдельный сервер (например, для копирования части рабочего трафика для тестирования экспериментального окружения на реальной нагрузке);
  • Представлен HAProxy Kubernetes Ingress Controller для обеспечения интеграции с платформой Kubernetes;
  • Добавлена встроенная поддержка экспорта статистики в систему мониторинга Prometheus;
  • Расширен протокол Peers Protocol, используемый для обмена информацией с другими узлами с HAProxy. В том числе добавлена поддержка Heartbeat и шифрованной передачи данных;
  • В директиву "log" добавлен параметр "sample", позволяющий сбрасывать в лог лишь часть запросов, например 1 из 10, для формирование аналитической выборки;
  • Добавлен режим автоматического профилирования (директива profiling.tasks, которая может принимать значения auto, on и off). Автоматическое профилирование включается в случае если средняя величина задержки превышает отметку в 1000 мс. Для просмотра данных профилирования в Runtime API добавлена команда "show profiling" или имеется возможность сброса статистики в лог;
  • Добавлена поддержка обращения к бэкенд-серверам с использованием протокола SOCKS4;
  • Добавлена оконечная (end-to-end, на своём пути обработки запроса, охватывая бэкенд) поддержка механизма быстрого открытия TCP-соединений (TFO - TCP Fast Open, RFC 7413), который позволяет сократить число шагов установки соединения за счёт комбинирования в один запрос первого и второго шагов классического 3-этапного процесса согласования соединения и даёт возможность отправки данных на начальном этапе установки соединения;
  • Добавлены новые действия:
    • "http-request replace-uri" для замены URL с использованием регулярного выражения;
    • "tcp-request content do-resolve" и "http-request do-resolve" для резолвинга имени хоста;
    • "tcp-request content set-dst" и "tcp-request content set-dst-port" для подстановки целевого IP-адреса и порта.
  • Добавлены новые модули конвертирования:
    • aes_gcm_dev для расшифровки потоков с использованием алгоритмов AES128-GCM, AES192-GCM и AES256-GCM;
    • protobuf для извлечения полей из сообщений Protocol Buffers;
    • ungrpc для извлечения полей из сообщений gRPC.


  1. Главная ссылка к новости (https://www.haproxy.com/blog/h...)
  2. OpenNews: Выпуск HTTP/TCP-балансировщика HAProxy 1.8
  3. OpenNews: Fastsocket - новая высокомасштабируемая реализация сетевой подсистемы ядра Linux
  4. OpenNews: Google опубликовал платформу балансировки нагрузки Seesaw
  5. OpenNews: Стабильный релиз прокси-сервера Squid 4
  6. OpenNews: Выпуск HTTP-акселератора Varnish 6.0
Лицензия: CC-BY
Тип: Программы
Ключевые слова: haproxy, proxy
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (33) Ajax | 1 уровень | Линейный | Раскрыть всё | RSS
  • 1.1, 1 (??), 12:12, 20/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Представлен новый API Data Plan, позволяющий на лету управлять настройками HAProxy через REST Web API. В том числе можно динамически добавлять и удалять бэкенды и серверы, создавать ACL, изменять маршрутизацию запросов, изменять привязки обработчиков к IP;

    Envoy больше не нужен?

     
     
  • 2.2, Аноним (2), 12:47, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ура, конкуренция в области микросервисов!
     
     
  • 3.4, zo0M (ok), 13:18, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    поясните
     
  • 2.3, Некто (??), 13:17, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • –5 +/
    тебе - нет
     
  • 2.17, Лапчатый девляпс бубунтёнак (?), 21:31, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    От требований зависит.

    У нас например, cookie-based session stickiness обязателен. Мы по привычке юзали старую, специально замороженную версию nginx с неофициальными патчами. Но пару лет назад нам надоело и я перешёл на вышеописанный HAProxy Ingress. Он идеален. Лучшее, что мне попадалось из ингресс-контроллеров. Так что, выбора на рынке мало.

    Кстати, я там слышал краем глаза, что envoy и RedHat Istio вроде скоро начнут session stickiness скоро поддерживать. Но отнюдь не все наши кубернетесы - OpenShift, а envoy я уже давно не пробовал.

     

  • 1.5, Аноним (5), 13:51, 20/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +7 +/
    Юзаю haproxy между nginx и группой php-fpm серверов. Балансирую коннекты на основании информации о load average каждого бекенда. haproxy стал спасением после nginx-овского функционально бедного upstream.
     
     
  • 2.6, evkogan (?), 14:04, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Как раз интересно что из них в каком случае лучше.
    Можете подробнее рассказать?
    Зачем оставлять nginx в Вашем случае, а не перейти только на haproxy?
     
     
  • 3.7, Аноним (7), 14:37, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    Потому что нжинкс - наше фсё. Отказ от нжинкса приравнивается к измене родине.
     
     
  • 4.8, fske (?), 15:07, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +12 +/
    Вот обязательно найдется дурачек, вроде тебя, чтобы оставись свой высер на опеннете
     
     
  • 5.11, Andrey Mitrofanov_N0 (??), 15:43, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Вот обязательно найдется дурачек, вроде тебя, чтобы оставись свой высер на опеннете

    Не льсти себе-

    Тут все такие.

    - просто подойди поближе.

     
     
  • 6.12, fske (?), 16:14, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Тут все такие.

    По себе остальных не судят

     
     
  • 7.13, Andrey Mitrofanov_N0 (??), 16:19, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    #>>>Вот обязательно найдется дурачек,
    >>Тут все такие.
    > По себе остальных не судят

    Да-да, именно.  Все-все такие, как ты.  Да.  Вот прямо такие, как ты _сказал_.

     
  • 3.20, хотел спросить (?), 00:28, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    тоже интерестно мнение зачем nginx поверх
     
     
  • 4.22, Аноним (5), 10:59, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +4 +/
    >тоже интерестно мнение зачем nginx поверх

    Причин много:
    1. реврайты. Да, у haproxy есть подобие реврайтов. Только гибкость nginx пока что не переплюнул.
    2. у haproxy нету интерфейса взаимодействия по разным протоколам с апликейшин серверами - uwsgi, fastcgi, cgi. Да, можно все свести к uwsgi + http взаимодействию. Но на то время было быстрее и проще оставить nginx.
    3. http/2 + разные фишки типа fastopen, reuserport, accept_filter=httpready, accept_filter=dataready, so_keepalive, {uwsgi|fastcgi}_cache, open_file_cache и прочее. Возможно часть этого и есть в haproxy, но в nginx все это обкатано годами и гарантированно работает.
    3. остановились на LA потому, что бекенды с разным железом и нагрузкой помимо самих апликейшин серверов. А LA хоть как-то объективно отображает загруженность ноды.

     
     
  • 5.31, хотел спросить (?), 03:31, 22/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >[оверквотинг удален]
    > - uwsgi, fastcgi, cgi. Да, можно все свести к uwsgi +
    > http взаимодействию. Но на то время было быстрее и проще оставить
    > nginx.
    > 3. http/2 + разные фишки типа fastopen, reuserport, accept_filter=httpready, accept_filter=dataready,
    > so_keepalive, {uwsgi|fastcgi}_cache, open_file_cache и прочее. Возможно часть
    > этого и есть в haproxy, но в nginx все это обкатано
    > годами и гарантированно работает.
    > 3. остановились на LA потому, что бекенды с разным железом и нагрузкой
    > помимо самих апликейшин серверов. А LA хоть как-то объективно отображает загруженность
    > ноды.

    спасибо )

     
  • 5.32, Ktoto (?), 12:57, 24/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Там же есть "веса" в нжиксе то ... не подошло ?
     
  • 2.10, другойАноним (?), 15:41, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    дал два к бабла nginx.com - шапрокся нафиг не нужна.
     
  • 2.14, Anonymouss (?), 16:36, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Можно деталей? интересно
     
  • 2.15, Аноним (15), 16:58, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Чем least_conn в nginx не устроил, который чуть менее, чем всегда будет эффективнее балансировки по la?
     
     
  • 3.24, Аноним (24), 13:07, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Чем least_conn в nginx не устроил, который чуть менее, чем всегда будет эффективнее балансировки по la?

    Тем, что least_conn ориентируется лишь на колчество соединений к каждому бекенду не взирая на нагрузку которую они создают. Ведь открытие обычной страницы сайта отличается от, к примеру, запроса на генерацию sitemap или rss ленты. В случае с haproxy + agent-check динамически меняется вес каждого бекенда исходя и текущей нагрузки.

     
     
  • 4.26, Аноним (26), 15:30, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Если запрос создает больше нагрузку, то он будет дольше занимать соединение, а значит в среднем к этому бекенду будет больше соединений и least_conn будет направлять больше запросов на другой бекенд.

    Вы сильно недооцениваете метод least_conn, он достаточно эффективен именно для честного распределения запросов в случае, когда они отличаются по нагрузке.

     
     
  • 5.27, Аноним (24), 16:13, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Вы сильно недооцениваете метод least_conn

    Судя по всему, вы сильно переоцениваете этот метод. Пример: по велению святого рандома, 70-80% тяжелых запросов на генерацию rss попадет на один из бекендов. В итоге имеем одинаковое количество коннектов но один из бекендов оказывается перегруженным. Не стОит забывать, что разные запросы создают разную нагрузку на проц и I/O диска, даже при одинаковом времени выполнения. Динамически меняя weight каждого бекенда на основании LA и достигается более менее равномерная нагрузка. Вот пример: https://prnt.sc/o4vamk (смотреть 1-й и 3-й графики). Только следует учесть, что это разные сервера, с разным железом и разной нагрузкой помимо php воркеров.

     
     
  • 6.28, Аноним (26), 20:45, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Включите least_conn и получите точно такую же картинку. Не смогут у вас 70% тяжелых запросов попасть на один бекенд как раз благодаря least_conn-у. В этом месте нет рандома. Он будет всегда выбирать наименее нагруженный бекенд. А наименее нагруженным всегда будет тот, который меньше занят тяжелыми запросами.

    Да, запросы создают разную нагрузку, но там же вытесняющая многозадачность. Тяжелый запрос просто отнимет ресурсы и время у других запросов на том же бекенде и он не сможет конкурировать с менее нагруженным. В результате сразу произойдет увеличение числа соединений с ним и least_conn перераспределит запросы на менее нагруженный. Причем время реакции у такой системы будет значительно выше, чем в случае любого способа измерять и передавать LA.

     
  • 6.29, Аноним (26), 20:49, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Разумеется, что если сервера разные по производительности, то нужно правильно выставить веса.
     
     
  • 7.30, Аноним (5), 03:15, 22/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >нужно правильно выставить веса

    А как их правильно выставить если на сервере есть нагрузка помимо php воркеров? При статических весах сервак будет либо простаивать, либо перегружен.

     
  • 2.16, Аноним (16), 18:14, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Как-то сомнительно. Ничего что LA обладает значительной лейтенси и не пригоден для балансировки в реальном времени?
     
     
  • 3.23, Аноним (5), 11:02, 21/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Ничего что LA обладает значительной лейтенси и не пригоден для балансировки в реальном времени?

    Если коннектов очень большое количество и на обработку каждого запроса тратится сравнительно мало времени, то эта лейтенси не играет большой роли.

     

  • 1.9, vitalif (ok), 15:12, 20/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А он кстати у всех жрет? Я через него постгрю проксирую, и если тупо дамп льешь, оно жрет ну так... 50-80% cpu
     
     
  • 2.18, Онаним (?), 21:43, 20/06/2019 [^] [^^] [^^^] [ответить]  
  • +/
    i386?
     

  • 1.19, Аноним (19), 21:53, 20/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Когда завезут поддержку udp?
    Nginx же умеет.
     
  • 1.21, Ваш Анонимус (?), 02:49, 21/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > Представлен новый API Data Plan, позволяющий на лету управлять настройками HAProxy через REST Web API.

    Ну блин, из-за отсутствия этого в предыдущем хапрокси, пришлось свой написать. :(

     
  • 1.25, Рихад (?), 14:25, 21/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Они бы текущее пофиксили, чем фичи клепать. Примерно раз в 15-20 дней становится невозможным подключиться к удаленному бякенду (например к мейл хабу), он помечается как DOWN и ничего кроме релоада не позволяет более подключиться к нему через haproxy, даже если сам удаленный сервис уже доступен. Чтобы обойти этот баг были вынуждены повесить проверялку в cron, которая парсит логи и релоадит если надо.
     
  • 1.33, LeNiN (ok), 22:41, 26/06/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    reload теперь, интересно, HAProxy умеет сам делать без обрыва соединений? Раньше вроде было только костылями, и без гарантий что соединения переживут это.
     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Слёрм
    Inferno Solutions
    Hosting by Ihor
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2019 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру