The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Релиз Proxmox VE 4.2, дистрибутива для организации работы виртуальных серверов

27.04.2016 23:57

Состоялся релиз Proxmox Virtual Environment 4.2, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа 699 Мб.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Web-интерфейс переведён на использование фреймворка Sencha Ext JS 6, добавлен новый набор пиктограмм и реализованы динамически генерируемые графики производительности;
  • Пакетная база обновлена до Debian Jessie 8.4.0;
  • Обновлены версии ядра Linux 4.4.6 и KVM/qemu 2.5.1;
  • Добавлена поддержка динамического выделения места в хранилище ("thin provisioning") на основе LVM (Logical Volume Manager).
  • В инсталлятор включены преднастроенные плагины для LVM thin provisioning и ZFS;
  • Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;
  • Модуль ядра drbd обновлён до выпуска 9.0.2, а инструментарий drbdmanage до выпуска 0.95;
  • Новые возможности LXC: улучшенная настройка контейнеров, ограничение сетевой полосы пропускания, добавление точек монтирования через GUI, возможность монтирования rootfs для доступа к другим контейнерам, улучшение системы резервного копирования и работы со снапшотами. Добавлена поддержка Alpine Linux и Ubuntu 16.04;
  • Добавлен диалог подтверждения операции удаления виртуальной машины или контейнера.


  1. Главная ссылка к новости (https://www.proxmox.com/en/new...)
Лицензия: CC-BY
Тип: Программы
Короткая ссылка: https://opennet.ru/44330-proxmox
Ключевые слова: proxmox
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (63) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Mr. Sneer (?), 06:51, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Кто-нибудь использует в продакшене? Реально замена для ESXi/vSphere ?
     
     
  • 2.2, Аноним (-), 07:09, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +14 +/
    Более чем реально.
     
     
  • 3.54, Аноним (-), 19:09, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Ровно до тех пор пока тестируешь сам новые сборки. В последнем релизе падает в течении суток 100% новых kvm-виртуалок на шине sata.
     
  • 2.4, Baz (?), 07:55, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Использую в нескольких организациях в продакшене.
    В том числе в кластере с shared storage.

    Там, где за лицензии VmWare заплатили бы стоимость 2-3 неплохих серверов - бесплатно.

     
     
  • 3.47, Игорь (??), 11:55, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Так вроде бы писали, что начиная с в.4 он стал платный, или я путаю?
     
     
  • 4.49, Аноним (-), 17:19, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Бесплатный. За деньги обновления и поддержка.
     
  • 2.9, Аноним (-), 09:33, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Зависит от того, что нужно заменять. vSphere большой набор продуктов, а не только esxi. А вот esxi заменяет с головой. Полноценный линукс, zfs, web-интерфейс, HA и бэкапы из коробки.
     
  • 2.67, к (??), 14:51, 20/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    просто, быстро , работает как часы , при обновлении ничего не ломается , оч доволен )
     

  • 1.3, Аноним (-), 07:43, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +8 +/
    С первой по третью версию использовал - kvm, openvz, iscsi для хранилища, поверх него nfs для контейнеров и raw volumes для kvm.
    Работало практически без нареканий - мелкие шероховатости со скриптами запуска iscsi и один апдейт заблокировавший контейнеры - фигня по сравнению с полученным профитом.
    Удобный Web-UI без богомерзкого флэша - огромный плюс.
     
     
  • 2.42, Аноним (-), 10:55, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ещё из мелких шероховатостей - дурацкие настройки pve-firewall, которые режут GRE-пакеты, и невозможность при помощи этого же pve-firewall пробросить порт в виртуалку.
     
  • 2.55, Аноним (-), 19:14, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Кстати, не так давно они в пользу vnc-like выпилили и богомерзкую жаву из console для виртуалок. Стало сильно лучше.
     

  • 1.5, василий (??), 08:03, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Используем давно. Из реально требуемых вещей, без которых уже не видится работа админа: снимки перед серьёзной работой с серверов, живая миграция между нодами.
     
     
  • 2.56, Аноним (-), 19:17, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Используем давно. Из реально требуемых вещей, без которых уже не видится работа
    > админа: снимки перед серьёзной работой с серверов, живая миграция между нодами.

    На случай если кто обрадуется: это не отменяет необходимость держать образ виртуалки в доступном для всех нод хранилище.

     

  • 1.6, Анонзо (?), 08:09, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Блин, я ещё с 3.4 не обновился до 4, всё руки не доходят. А они уже дальше погнали.
     
     
  • 2.7, фыва2 (?), 08:47, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +2 +/
    >>3.4 не обновился до 4

    там изменения по контейнерам,
    если тока kvm юзаешь то норм... иначе читать и тестить.

    а так вообще проксмокс хорош...

     
  • 2.8, Docent (??), 08:52, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Аналогично
    Причем, в 3.4 у меня исчезли многочисленные и фатальные глюки с распределением памяти на хостах и я теперь боюсь что-либо трогать :-)
     
  • 2.11, Аноним (-), 09:58, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Не торопись, lxc-контейнеры сырые до невозможности использования.
    Обновишься, когда (если) OpenVZ 7 впилят
     
     
  • 3.12, Анонзо (?), 10:04, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Да у меня только kvm, так что тут проблем нет.
     
  • 3.13, Сергей (??), 10:11, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Использую LXC 1.1.5. Очень стабильно и удобно. А вот proxmox удобен только своими плюшками из коробки. Но то как он сам устроен и когда немного покопаешься в потрохах, то становится тошно - поделка на коленках.
     
     
  • 4.14, фыва2 (?), 10:30, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    а, собственно, если не затруднительно - в чем поделочность то?
    или перл не устраивает?

     
     
  • 5.23, Сергей (??), 14:42, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Структура папок: есть /var/lib/lxc со стандартной структурой папок LXC, но он не используется. Почему-то осталась папка /var/lib/vz, которая активно используется.
    Хранение конфигураций: динамическое создание конфигураций при загрузке - бесит.
    Хвосты от openVZ по всей системе.
    Сам LXC не полностью функционален. Например lxc-ls --active - не работает.
    Многие скажут - так оно же для web-управления, но я не согласен. Данный продукт не обеспечивает полного абстрагирования от консоли, а значит должно быть всё прозрачно для человека не использовавшего proxmox ранее.
    Ну и старые недочёты и отсутствие необходимого функционала (невозможность банального задания default-ного template-а или сетевого моста, системы автоматического развёртывания, API, который не охватывает весь функционал)
     
     
  • 6.26, Аноним (-), 14:57, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Там есть и повеселее моменты, например, ребуты при свопе на zfs с настройками по-умолчанию.
     
     
  • 7.30, Аноним (-), 20:49, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    небось на хосте меньше 4 гигов памяти
     
     
  • 8.39, Аноним (-), 09:27, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Хоть сколько памяти Если будет своп, то будет краш ... текст свёрнут, показать
     
  • 8.57, Аноним (-), 19:21, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Дело в нагрузке Как только клиентов становятся тысячи - lxc кладется намертво в... текст свёрнут, показать
     
  • 5.27, Сергей (??), 15:00, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • –1 +/
    И пока вспомнил - для создания контейнера LXC используются темплейты OpenVZ


     
  • 2.18, tonys (??), 12:02, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Mainstream support
    The end date of Proxmox VE 3.4 mainstream support is April 30, 2016. On this date, also the Debian Wheezy security support is ending.

    Extended Support
    Proxmox VE 3.4 will get security updates until February 28, 2017. This is only for security fixes. No new features will be implemented.

     

  • 1.15, Аноним (-), 10:36, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Кто нибудь сравнивал с Ovirt , есть какие плюсы\минусы ?
     
     
  • 2.16, 343223 (?), 11:22, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Ovirt, когда я его последний раз щупал, был монструозным, неуклюжим, глючным куском. Может что-то изменилось за 2 года, но не уверен.
     
     
  • 3.17, Аноним (-), 11:43, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Я вообще не осилил поднять один селфхостед гипервизор и локальным хранилищем.
     
     
  • 4.20, Аноним (-), 13:16, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    А это конфигурация ни разу не рекомендованная, в первых версиях она вообще не  поддерживалась. По удобству сравнима с процессом управлением машины из багажника.
    Для рекомендованной конфигурации 2 + 1 + 1, которую в простонародье называют "На каждый чих по физическому серверу" установка и настройка тривиальны.  
    Обобщая: без blade сервера лучше даже не соваться.
     

  • 1.21, Аноним (-), 13:50, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    интересно, как в нём отдать виртуалке сеть .1q транком?
     
     
  • 2.22, alex (??), 14:19, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    У меня через openvswitch trunk прокидывается в виртуалку, просто в гуи не указываешь vlan и все, внутри виртуалки убунта с openvswitch тоже или можно по старинке через eth0.vlan_num
     

  • 1.24, PavelR (??), 14:46, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Подскажите, управление дисковыми iops (балансировка/ограничение) - есть?
     
     
  • 2.29, Аноним (-), 20:02, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    да
     
  • 2.61, Аноним (-), 20:07, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Подскажите, управление дисковыми iops (балансировка/ограничение) - есть?

    Есть, но не спасает от того, что хостовая система фризится от  большого disk или net i/o.

     

  • 1.28, Аноним (-), 18:48, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Кому нибудь еще не хватает живой миграции контейнеров, или только мне?
     
     
  • 2.31, VKraft (?), 21:30, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    и мне не хватает, поэтому пользуемся другой системой виртуализации
     
  • 2.32, tonys (??), 22:30, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Roadmap
    Linux Containers (LXC) live-migration (experimental)
     
     
  • 3.58, Аноним (-), 19:26, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Roadmap
    >  Linux Containers (LXC) live-migration (experimental)

    Толку от lxc live migration если без неё lxc-контейнеры работают через одно место?

     
  • 2.34, Pilat (ok), 22:58, 28/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Кому нибудь еще не хватает живой миграции контейнеров, или только мне?

    Она там почти есть, но сами контейнеры работают плохо

     

  • 1.33, Ононим88 (?), 22:42, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    хранить контейнеры на ZFS теперь является рекомендованной практикой?
     
     
  • 2.59, Аноним (-), 19:29, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > хранить контейнеры на ZFS теперь является рекомендованной практикой?

    Нет. Partition the hard drive with ext4 (alternative ext3 or xfs) or ZFS

     

  • 1.35, Аноним (-), 23:13, 28/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Как можно добавить темплейты LXC ?
     
     
  • 2.45, Сергей (??), 11:51, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Как можно добавить темплейты LXC ?

    Темплейты LXC надо брать на OpenVZ вот здесь http://openvz.org/Download/template/precreated
    и класть их в папку /var/lib/vz/template/cache

     
     
  • 3.48, f1ex (ok), 12:35, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Спасибо. А то в доке написано, что можно через гуй скачать, но я не нашел в меню
     

  • 1.38, Sokoloff (?), 09:03, 29/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >> Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;

    Кто-нибудь может объяснить как это работает? Насколько я знаю для Let´s Encrypt нужно подтвердить владение доменом (через DNS или файлик на веб), но proxmox разворачивают внутри сети, и используют приватные DNS зоны (вроде server1.company.int) Как можно подтвердить владение 192.168.Х.Х или 10.Х.Х.Х?

     
     
  • 2.46, Сергей (??), 11:52, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    >>> Добавлена поддержка генерации SSL-сертификатов через сервис Let´s Encrypt;
    > Кто-нибудь может объяснить как это работает? Насколько я знаю для Let´s Encrypt
    > нужно подтвердить владение доменом (через DNS или файлик на веб), но
    > proxmox разворачивают внутри сети, и используют приватные DNS зоны (вроде server1.company.int)
    > Как можно подтвердить владение 192.168.Х.Х или 10.Х.Х.Х?

    Нет, не требуется. Клиент сам инициирует подключение к серверам Let's Encrypt

     
  • 2.51, Аноним (-), 09:41, 30/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    На приватные DNS зоны, как и IP нельзя получать сертификаты. Зато можно получить сертификат для proxmox1.example.com
     
     
  • 3.52, Sokoloff (?), 10:40, 30/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Сертификат там используется для веб-морды, и я не думаю что кто-то в своем уме будет выставлять морду в интернет. Поэтому и вопрос возник.
     
     
  • 4.53, Аноним (-), 18:18, 30/04/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Веб-интерфейс выставлять не надо, надо 80 порт.
     

  • 1.43, Иван (??), 11:09, 29/04/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Кому не нужен ovz или lxc, то рекомендую обычный libvirt + webvirtcloud
     
     
  • 2.44, Аноним (-), 11:35, 29/04/2016 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Админы одинокого гипервизора подтянулись с рекомендациями.
     
  • 2.50, Аноним (-), 03:45, 30/04/2016 [^] [^^] [^^^] [ответить]  
  • +1 +/
    libvirt в последних версиях стал настолько жирным, что proxmox рядом с ним выглядит как "легковесное решение".
     
     
  • 3.60, Аноним (-), 19:32, 01/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > libvirt в последних версиях стал настолько жирным, что proxmox рядом с ним
    > выглядит как "легковесное решение".

    Собственно, в области легкой виртуализации до сих пор нет ничего быстрее и стабильно функционирующего под нагрузкой чем openvz и freebsd jail.

     
     
  • 4.62, Анон в кедах (?), 13:56, 02/05/2016 [^] [^^] [^^^] [ответить]  
  • +2 +/
    ох уж эти ыксперты
    openvz как и jail вообще виртуализацией не являются
    голый kvm с libvirt уложатся в 5% cpu и 70 мегабайт оперативки, если это для вас недостаточно легко, то что-то в вашей жизни явно пошло не так
     
     
  • 5.63, Аноним (-), 18:12, 02/05/2016 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Ну зато ты сразу видно большой ыксперт, но почему-то ты не осилил даже гугль:

    https://ru.m.wikipedia.org/wiki/FreeBSD_Jail
    https://ru.m.wikipedia.org/wiki/OpenVZ

    > пошло не так

    Твои фантазии пошли не так. В сочетании с твоим уровнем знаний в отрыве от реальной задачи они вообще не интересны.

     

  • 1.64, Аноним (-), 01:10, 04/05/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Вопрос к тому, кто пишет что на продакшене использует:
    Сколько виртуальных серверов? На каком железе работает? Так как с ibm pureflex проблемы были у дебиана, драйверов не хватало, а компилить или что то доставлять это колхоз когда у тя нод x240 больше сотни. Работает ли с флешки? Как переживает расширение raw диска на полке? С kvm проблемы были что гипервизор вис наглухо.
    И самое главное по сравнению с VMware, поддерживает добавление на ходу памяти и процов?
     
     
  • 2.65, Ананимус (?), 19:33, 07/05/2016 [^] [^^] [^^^] [ответить]  
  • +/
    Много вопросов!
    У меня две ноды в работе, плюс третья чисто для кворума. ну и хранилище в ceph.
    Шесть виртуалок и четыре контейнера
    ноды HP DL380 G7-8, hpwdt отключил, работает всё относительно стабильно.
    самый большой косяк - сплитбрейн, т.е. если упадут оба свича, то ноды дружно стреляют себе в голову.
    Косяк поменьше - это кривые руки, например, исчерпал свободное место на ceph - все виртуалки "встали на паузу". При этом можно еще словить невозможность зайти на ноду, но из кластера нода не выпадает, и виртуалки даже остановить нет возможности. Даже после освобождения места на ceph, нода не оживает, приходится ребутить. На флешку народ ставит, но не я. В виртуалку на ходу процов не добавляет.
     

  • 1.68, Аноним (68), 16:25, 16/06/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Не могу запустить созданную VM. В чем проблема? Вхожу под root. Все выполняю как в предыдущих версиях, но выдает Ошибка:start failed: command..
     
  • 1.69, Аноним (69), 12:41, 18/08/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Аналогичная проблема:

    Running as unit 100.scope.
    Could not access KVM kernel module: No such file or directory
    failed to initialize KVM: No such file or directory
    TASK ERROR: start failed: command...

    Как с этим бороться?!

     
     
  • 2.70, БелБот (?), 20:31, 18/08/2016 [^] [^^] [^^^] [ответить]  
  • +/
    > Аналогичная проблема:
    > Running as unit 100.scope.
    > Could not access KVM kernel module: No such file or directory
    > failed to initialize KVM: No such file or directory
    > TASK ERROR: start failed: command...
    > Как с этим бороться?!

    У тебя не поддерживает проц виртуализацию, либо отключено в биосе.


     

  • 1.71, Аноним (69), 16:00, 19/08/2016 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    В Биосе всё включено. Проблема была в проце при создании KVM. Выбрал просто KVM32 и всё заработало!
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2020 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру