The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Выпуск дистрибутива Proxmox VE 8.2

24.04.2024 22:24

Опубликован релиз Proxmox Virtual Environment 8.2, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix Hypervisor. Размер установочного iso-образа 1.3 ГБ.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса: поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Осуществлена синхронизация с пакетной базой Debian 12.5. Ядро Linux обновлено до выпуска 6.8. Задействованы новые выпуски QEMU 8.1.5, LXC 6.0.0 и OpenZFS 2.2.3. Доступна поддержка создания хранилищ на базе выпусков Ceph 18.2.2 "Reef" и Ceph 17.2.7 "Quincy"
  • Предложен новый мастер импорта, позволяющий переносить гостевые системы напрямую из других гипервизоров, обращаясь к ним через их API. Переносимые гостевые системы могут запускаться в Proxmox VE, не дожидаясь завершения переноса данных, который осуществляется в фоновом режиме. Первой обеспечена поддержка миграции из гипервизора VMware ESXi.
  • Добавлена поддержка автоматизированной установки Proxmox VE без участия администратора. Формирование ISO-образа для автоматического развёртывания осуществляется при помощи новой утилиты proxmox-auto-install-assistant. Параметры установки могут задаваться через специальный файл конфигурации, который может быть как встроен в ISO-образ, так и размещён на отдельном USB-носителей или загружен по сети.
  • Добавлен режим буферизации резервного копирования на локальном диске (Backup fleecing), позволяющий минимизировать снижение производительности гостевой системы при её резервном копировании во внешнее хранилище. Перед передачей во внешнее хранилище блоки теперь могут быть сохранены на отдельном локальном разделе, что позволяет заметно снизить проседание производительности ввода/вывода в гостевой системе при копировании резервной копии через медленное сетевое соединение или при высокой активности ввода/вывода в гостевой системе.
  • Добавлена новая экспериментальная реализация межсетевого экрана, переведённого с iptables на пакетный фильтр nftables, что позволило избавиться от многих проблем старой реализации и повысить надёжность работы. Новая реализация написана на языке Rust и почти эквивалентна по функциональности со старым межсетевым экраном.
  • В web-интерфейс добавлен инструмент для проброса устройств в контейнеры, используя графический конфигуратор. Отключён переход в режим редактирования полей при двойном щелчке мышью, что исключило случайный запуск редактора при выполнении операций выделения и копирования текста. На экране редактирования кнопка сброса перемещена в новое место для снижения риска случайного нажатия.
  • Добавлены расширенные настройки резервного копирования, такие как параметры производительности и ограничение пропускной способности.
  • Добавлена поддержка собственных удостоверяющих центров, использующих протокол ACME.


  1. Главная ссылка к новости (https://www.proxmox.com/en/abo...)
  2. OpenNews: Выпуск дистрибутива Proxmox VE 8.1
  3. OpenNews: Доступен дистрибутив Proxmox Backup Server 3.1
  4. OpenNews: Выпуск дистрибутива Proxmox Mail Gateway 8.1
  5. OpenNews: Релиз Proxmox VE 8.0, дистрибутива для организации работы виртуальных серверов
  6. OpenNews: XCP-ng, свободный вариант Citrix XenServer, вошёл в состав проекта Xen
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/61064-proxmox
Ключевые слова: proxmox, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (95) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Rev (?), 22:39, 24/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +12 +/
    Офигенные фитчи в обновлении!
     
  • 1.2, xxx000111 (?), 22:41, 24/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Поехали с ESXi?
     
     
  • 2.13, Аноним (13), 06:45, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ESXi больше не бесплатная, благодарите броадком.
     
     
  • 3.88, нах. (?), 22:40, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > ESXi больше не бесплатная, благодарите броадком.

    Слава Броадкому! Слава рептилоидам, господам нашим!


     

  • 1.4, СисадминА (?), 22:55, 24/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –37 +/
    Бесполезная ещё и на дебиане. Случись что куда обращаться? Никто не знает как там всё работает в отличии от qemu/kvm/libvirt
     
     
  • 2.6, нах. (?), 22:59, 24/04/2024 [^] [^^] [^^^] [ответить]  
  • +5 +/
    Ко мне можешь. Дорого, надежно.

    (и ты не поверишь - там внутри kvm)

    Работает - ну как-то так же как и все прочие. Т.е. в простых случаях - работает.

     
     
  • 3.91, Аноним (91), 10:26, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А можно я обращусь? (без иронии!)

    У меня есть Spine-Leaf фабрика на сети. Всё на L3 и BGP используется для роутера в датацентре. И настроен Datacenter Interconnect.
    https://www.juniper.net/documentation/us/en/software/nce/sg-005-data-center-fa

    Есть VMware NSX, который не T, а тот, который на VXLAN. Он приземляет VTEPы на виртуальные коммутаторы.

    Вопрос простой: Proxmox уже можно научить работать в такой сетевой среде?

     
     
  • 4.94, нах. (?), 11:20, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ой мля... то есть вы ухитрились построить ВНУТРЕННЮЮ сеть вот по этой методичке, с eBGP и миллионом AS В ОДНОЙ, с-ка, стойке?!

    Даже мы от такой идеи в свое время отказались, хотя у нас были поводы (оно таки несколько autonomous...могло бы быть но ну нафиг).

    > Вопрос простой: Proxmox уже можно научить работать в такой сетевой среде?

    ну когда я последний раз смотрел на их поддержку openvswitch - там по прежнему требовалось вручную настраивать весь миллион интерфейсов на каждом хосте отдельно.
    Т.е. приземлить vxlan'ы ты сможешь, я как-то даже и без нескучных гуев обхожусь, но костылить все это в рамках кластера будешь самостоятельно по лучшим рецептам шва6одки. А если кластер еще и не один...

     
     
  • 5.100, Аноним (100), 14:05, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Т.е. по существу вопроса ответа не будет?
    Но буков натыкал много. Молодец! В лучших традициях диванных специалистов.
     
     
  • 6.102, нах. (?), 14:08, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Т.е. по существу вопроса ответа не будет?

    я тебе по существу и ответил - можно. Вручную. Если я правильно понимаю что ты хочешь заменить именно nsx.
    Со стороны нескучного вебгуя будет ровно то же что в твоей вмвари - порты виртуальных коммутаторов. В чем проблема-то?

     
  • 5.101, Аноним (100), 14:06, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Т.е. по существу вопроса ответа не будет?
    Но буков натыкал много. Молодец! В лучших традициях диванных специалистов
     
  • 4.98, Аноним (-), 00:05, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Расшифруйте пожалуйста
    Очень интересно
     
  • 2.29, Пряник (?), 10:26, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Поднимай OpenStack тогда на любом дистрибутиве.
     
     
  • 3.56, Аноним (56), 14:23, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А с ним есть куда обращаться?
     
     
  • 4.76, ШирлаМырла (?), 17:04, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Обращаться к известным тутошним экспертам по всему на свете: Поху И Наху.
    Есть мнение, что это один и тот же человек, но кого это волнует?
     
     
  • 5.80, нах. (?), 17:36, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    не, с опенштепселем - это просто сразу нax, а не ко мне.

    Я вообще не верю что существуют люди, целиком понимающие как работает эта невероятная мешанина из миллиона несовместимых поделок, в каждой версии разных.

     
     
  • 6.92, Аноним (91), 10:43, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Ну я, например, понимаю как работают nova, glance, cinder, octavia и neutron Ц... большой текст свёрнут, показать
     

  • 1.5, нах. (?), 22:58, 24/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    > Новая реализация написана на языке Rust и почти эквивалентна
    > по функциональности со старым межсетевым экраном.

    ах, это милое "почти"!

    Но будете жрать, кто не хочет - заставят двойную дозу. Вторую, разумеется - с другого конца.

     
     
  • 2.93, Аноним (93), 11:18, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >Добавлена новая экспериментальная реализация межсетевого экрана

    Самый смак, что экспериментальная, но мы все равно добавим! это же Rust!
    Тренируйтесь на кошках, а не на проде.

     
     
  • 3.103, нах. (?), 14:12, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >>Добавлена новая экспериментальная реализация межсетевого экрана
    > Самый смак, что экспериментальная, но мы все равно добавим! это же Rust!

    "экспериментальная" вообще-то должно означать что "ну возможно мы чего-то не учли или где-то будут возникать ошибки", а не "почти эквивалентна по функциональности" - т.е. "мы половину не доделали потому что не знаем как".

    > Тренируйтесь на кошках, а не на проде.

    Ну кто ж на прод тащит неподдерживаемую версию? Не всякий подвальный админ настолько глуп.
    Так что на кошках и тренируются - благодарных пользователях нахалявку побольше.


     

  • 1.8, Аноним (8), 01:42, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Переносимые гостевые системы могут запускаться в Proxmox VE, не дожидаясь завершения переноса данных

    Это как и зачем?

     
     
  • 2.9, Аноним (56), 03:08, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Это как

    This is achieved by importing the hard disk data required by the running guest operating system at an early stage and importing the remaining data asynchronously in the background.

    > и зачем?

    This option reduces downtime.

    https://pve.proxmox.com/wiki/Migrate_to_Proxmox_VE#Live-Import

     

  • 1.11, нитгитлистер (?), 05:31, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    эмм а где такое может пригодиться? зачем создавать тысячу выртуалок? это система из разряда "много независимых рабочих мест подключённых к 1 системнику"?
     
     
  • 2.12, WE (?), 06:23, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Это для виртуализация для домохозяек: поднять много VM в простых условиях и в надежде на бекап.
     
     
  • 3.14, Аноним (13), 07:27, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +6 +/
    Proxmox 7 версии много лет бок о бок отпахала рядом с ESXi. Оба надежные как танк.
     
     
  • 4.15, ryoken (ok), 07:35, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >>Оба надежные как танк.

    А какой именно танк? Их же много разных :).

     
     
  • 5.58, Аноним (58), 14:36, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Как надежный танк.
     
  • 2.81, нах. (?), 17:38, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    эксперты опеннета, они такие вот... интересно, в каком подвале выращен сей редкий экземпляр?

     
     
  • 3.90, Минона (ok), 09:55, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > эксперты опеннета, они такие вот... интересно, в каком подвале выращен сей редкий
    > экземпляр?

    "А других у меня для вас нет." (С) пох

     

  • 1.16, Аноним (16), 08:26, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Оно уже может как класический ESXi 6.7 загрузиться в память с флэшки, занять минимальный объем и работать как часы даже если носитель отъехал в мир иной?
     
     
  • 2.19, Аноним (19), 08:36, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +5 +/
    оно может установится почти на любое железо, вне списка совместимости с ESXi. Собственно это и есть его главная ниша, а с учётом того что ESXi теперь хотят за тугрики, то и шире в массы пойдёт.
     
  • 2.63, Минона (ok), 15:30, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Флешки моветон.
    Ноды должны грузиться по сети.
     

  • 1.17, Аноним (17), 08:33, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Ядро 6.2 не поддерживается и не загружается, а на 6.5 при работе снапшота "Connection timeout" что на 6.8 даже не знаю.
     
  • 1.18, Аноним (18), 08:35, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    было б годно если б не столь короткий срок жызни
     
     
  • 2.20, Аноним (20), 08:52, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Все в порядке там с сроком жизни в кластерном исполнении. Ноды обновляешь по этапам, планово, без суеты, и всё проходит без проблем.
     
     
  • 3.24, Аноним (18), 09:44, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Ноды обновляешь по этапам, планово, без суеты, и всё проходит без проблем.

    верится с трудом ©

     
  • 2.21, нах. (?), 08:53, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    плати деньгов... ну или не плати - от смены цифирки версии в общем-то мало что меняется.

    Ну добавили пакетный хрустофильтр - подумаешь, как будто кто-то на самом деле этим пользовался всерьез.

     
     
  • 3.25, Аноним (18), 09:45, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    плати деньгов...

    жадные какие!

     
  • 3.28, Анонимус3000 (?), 10:17, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Так и с коммерческой лицензией оно живёт мало. Роллинг очень дерзкий. Ну вот как можно на сервер ставить ядро, которое только-только появилось в Федоре? И ладно бы ещё ядро, но зачем было в 8.0 ставить только вышедшую OpenZFS 2.2? В итоге поймали data corruption баг
     
     
  • 4.30, IdeaFix (ok), 10:54, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вы сами ответили на свой вопрос. Чтобы показать хоть какие-то киллерфичи, они в моменте и убунтовое ядро тянули. А если использовать что-то постабильнее и не стильное-модное-молодёжное, то как новых клиентов привлекать?:)
     
     
  • 5.42, Анонимус3000 (?), 12:54, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Так у них киллер фича это полнофункциональный интерфейс и интеграция всего в цельный продукт, как по мне. А что там такого киллерного понадобилось срочно из OpenZFS 2.2 и самых свежих ядер? Неужто проксмокс массово ставят на новейшее железо?
     
     
  • 6.43, IdeaFix (ok), 13:12, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Когда сторадж и поддержка железа отданы на аутсорс, а тестирование аутсорсеров п... большой текст свёрнут, показать
     
     
  • 7.52, Аноним (52), 13:39, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    У Убунты тоже раньше была ококлонулевая доля рынка, а сейчас самый популярные дистрибутив и не только на дектопах, но и на серверах и онлайн-кассах.
     
  • 7.83, нах. (?), 17:54, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Слушай, ну я не знаю что все тут делали с esxi free C hyper-v единичным пот... большой текст свёрнут, показать
     
  • 6.97, RHEL Fan (?), 19:48, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    В zfs 2.2 типа супер-пупер динамический arc, которым не надо рулить руками. Хотя все равно рекомендуют руками :-)
     
  • 4.33, нах. (?), 11:28, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    ну вот, кто-то ж должен был его поймать прежде чем этот релиз распределился по (не)дорогим клиентам?

    А то ишь, деньгов не плотют, пре-альфатестерами быть не хочут.

     
     
  • 5.44, IdeaFix (ok), 13:14, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > ну вот, кто-то ж должен был его поймать прежде чем этот релиз
    > распределился по (не)дорогим клиентам?
    > А то ишь, деньгов не плотют, пре-альфатестерами быть не хочут.

    Так же не надо забывать про первое правило бойцо^W пре-альфа тестера. Никто не должен знать что во время юзанья сабжа был потрачен любимый локалхост :)

     
     
  • 6.59, нах. (?), 15:01, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    да зачем рисковать любимым локалхостом? Кто ж так вообще тестит-то?

    Во как надо: https://michael-prokop.at/blog/2021/04/09/a-ceph-war-story/

    специально не поленился раскопать эту комедию в трех актах, а то уже забывать народ что-то начал.
    Это вот - настоящие пре-аьфатестеры, а не какие-то бесполезные хикки с локалхостами.


    Тут и про проксю, и про цеф, и про ебемеленово ентер-прайс кволити и про все что вы явно не хотели знать да и спрашивать бы не рискнули.

    А клиент, небось, так и не узнал...

     
     
  • 7.62, IdeaFix (ok), 15:12, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > А клиент, небось, так и не узнал...

    Вот если бы локалхост был потрачен, то никто бы не узнал. А кейсы "смотрите все, я сделаль" только подтверждают это правило.

     
  • 7.86, Аноним (86), 20:15, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Они там сами себе злые буратины. Я так понимаю цеф настоятельно требует отдельные физические диски под свой контроль, видимо определенный процент их выхода из строя он с помощью реплицирования и может пережить. А у этих товарищей было подключено через raid-контроллеры, на которые накатили кривые фирмвари, из-за чего xfs массово поломалась.
     
     
  • 8.87, нах. (?), 22:11, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    начал писать длинный прогон но передумал - ой, фсе В смысле п-ц настолько пол... текст свёрнут, показать
     
     
  • 9.107, Заноним (?), 18:39, 01/05/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Да-да, надо всем по лухари GPFS за тонну, с которой ты себе пай отстегнёшь в паз... текст свёрнут, показать
     
     
  • 10.109, нах. (?), 19:29, 01/05/2024 [^] [^^] [^^^] [ответить]  
  • +/
    безусловно ты тщательно перечитываешь рекомендации стаи разработчиков bin ls ко... текст свёрнут, показать
     
     
  • 11.110, Заноним (?), 01:15, 02/05/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Как обычно, оконченный демагог в тебе не даёт спокойно принять факт ущербности т... текст свёрнут, показать
     

  • 1.31, Аноним (31), 11:09, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    Отличная штука! Обновляется, обрастает функционалом - лепота.
    Имею в продакшнах 3 кластера по от 2 до 5 машин. Работает всё  четко сквозь время. С 5 ветки еще. Обновлялось всё поэтапно. Иногда не без проблем, но последние года, особенно переход с 6-7-8 был без проблемный. Короче толковая штука для виртуализации. Нечего наговаривать.
     
     
  • 2.32, Dima (??), 11:15, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А как в проксмоксе уменьшить физический размер имиджа когда нужно? В либвирт это просто.
     
     
  • 3.36, Аноним (31), 11:46, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Эт да, не всё ещё графически оформленно удобно. Только через консоль)
    qemu-img resize или zfs set volsize зависит от типа диска
    прадварительно сжать в гостевой системе

     
     
  • 4.38, Dima (??), 11:58, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    qemu-img resize мне не логический размер уменьшить, а физический. Так как qcow2 при удалении снапшотов внутри себя, больших объемов данных, не сокращает свой физический размер. Как мне его уменьшить? В libvirt есть virt-sparsify для этого.
     
     
  • 5.40, dalco (ok), 12:11, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    qemu-img convert -c -p -O qcow2 <старый образ> <новый образ>

    Получишь ужатый по самое нехочу образ.

    Ну и крайне полезно перед этим пустить 'fstrim -av' на гостевой системе, а для этого нужен виртуальный контроллер а ля VirtIO SCSI, который умеет trim.

     
     
  • 6.45, IdeaFix (ok), 13:14, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > qemu-img convert -c -p -O qcow2 <старый образ> <новый образ>
    > Получишь ужатый по самое нехочу образ.
    > Ну и крайне полезно перед этим пустить 'fstrim -av' на гостевой системе,
    > а для этого нужен виртуальный контроллер а ля VirtIO SCSI, который
    > умеет trim.

    ммм... удобством пахнуло...

     
     
  • 7.50, dalco (ok), 13:32, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Стандартный рецепт для QEMU/KVM и всего, что на его основе работает.

    P.S. Наверное, можно скрипт написать и через API - отключить VM, упаковать диски, запустить VM.
    Но мне пока не до подвигов - так что тупо запихал все VMки на FS со сжатием.

     
  • 4.49, Аноним (49), 13:25, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Я если у меня образы виртуалок на LVM на внешней хранилке по FC?

    Ладно, шучу. Там как раз всё проще:
    1. ужимаем ФС внутри гостя
    2. Ужимаем VGЮ оставляя чуть-чуть места, самый кропаль
    3. Ужимаем PV
    4. Растягиваем ФС внтури гостя на тот самый маленький кропаль.

    Сто раз так делал, все норм. Но всех нюансов уже не помню, возможно что-то в середине забыл )

     
  • 3.37, RA (??), 11:53, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    для этого же есть lvm-thin - образ занимает столько места сколько данных на вм
     
  • 3.46, Аноним (86), 13:21, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Для этого же есть ZVOL и настройка трима в гостевой машине. Все эти qcow - отстой, одна файловая система поверх диугой, нужно виртуальные диски на вольюмах разворачивать а не qcow файлами
     
     
  • 4.54, dalco (ok), 14:10, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    У qcow есть "маленькое" преимущество - стандартный формат, который знает большинство альтернативных гипервизоров (как минимум, конверторы есть) и нет привязки к конкретной FS на конкретной машине, то есть, перемещай файл куда угодно и чем угодно.
     
     
  • 5.57, Аноним (86), 14:36, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    У raw дисков на вольюмах есть "большое" преимущество, это вообще исходный формат хранения без лишних слоёв, его вообше не только лишь все гипервизоры знают, но бареметалл))
    Перемещаются тоже в один клик в проксе, еще и виртуалку в процессе этого перемещения останавливать не нужно. Не нужны эти qcow'ы, лишний слой с файловой системой. ZVOL, например, и надежность даст больше и проверку блоков контрольными суммами, отдачу незанятого пространства в сторадж по триму, отправку инкреметальных изменений между снапшотами на бэкапную машину и т.д. и т.п. В lvm-thin тоже похожие плюшки и еще менее ресурсоемкие чем у zvol, но я лично разочаровался, пару раз на него не мигрировали диски, повреждался видимо, zvol/zfs такое себе не позволяет.
     
     
  • 6.61, dalco (ok), 15:12, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Насколько понимаю, со снапшотами у raw никак, а мне и юзерам оно таки нужно, причём, чтобы тыкнул мышкой и вот оно без дополнительных затрат - хочешь, новые снапшоты создавай, хочешь - к старым откатывайся.
    И когда таких операций в день десятки, то поневоле захочешь, чтобы всё было просто и понятно, причём не только мне, но и студенту-первокурснику, за 5 минут прочитавшего статейку в корпоративной Wiki.
     
     
  • 7.65, Минона (ok), 15:40, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    У zvol снапшоты из коробки.
     
     
  • 8.72, dalco (ok), 16:31, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    На другую ноду или другой сервак, где ZFS нет в принципе, как переезжать Тут хо... текст свёрнут, показать
     
     
  • 9.77, ШирлаМырла (?), 17:17, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Если вы постоянно переезжаете виртуалками туда-сюда и у вас это нормально, то ва... текст свёрнут, показать
     
  • 9.99, Минона (ok), 09:57, 27/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Тут речь про PVE или локалхост ... текст свёрнут, показать
     
     
  • 10.105, нах. (?), 19:42, 28/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    что помешает коляну собрать pve кластер из локалхостов каждый настроенный отдель... текст свёрнут, показать
     
  • 4.106, Аноним (106), 21:00, 30/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Этот zvol бы еще нормально работал с NVMe в raid1 или raid10 цены бы ему не было. А так безделушка на поиграться.

    При копировании в гостевых виндах файлов размером 30-40 ГБ на графике получается отличная пила. Стартует быстро, а потом суп с котом. Скорость может упасть до 0, потом опять подняться и так все время.

     
     
  • 5.108, Заноним (?), 18:45, 01/05/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Вероятно вы просто не умеете его правильно готовить.
     
  • 2.47, Аноним (49), 13:22, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > 2 до 5 машин

    и как у тебя кворум на 2 машинах работает, сказочник?

     
     
  • 3.60, нах. (?), 15:10, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    >> 2 до 5 машин
    > и как у тебя кворум на 2 машинах работает, сказочник?

    да совершенно нормально работает у него кворум - "2 of 2 available".

    А когда не эвейлабл - то уже и поздно в общем-то пить боржом.

    Переживать по поводу сплитбрейнов надо только тем кто надеется при сплите как-то выжить, и имеет для этого дофига лишних ресурсов. А не "чота на сервере место и проц кончились, давайте еще один подоткнем, я как раз вчера на помойке видал".

     
  • 2.48, Аноним (86), 13:23, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    > Имею в продакшнах 3 кластера по от 2 до 5 машин.

    В кластере должно быть минимум 3 машины, иначе возможен сплитбрэин при проблемах.
    Ну или вместо третьей машины использовать Q-device.

     
     
  • 3.74, Аноним (31), 16:43, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Совершенно верно человек выше написал. Всё ещё зависит от условий и задач, которые там крутятся. Иногда просто не требуется HA  в прямом понимании. При ограниченном бюджете достаточно и 2 серверов, чего достаточно для ручной миграции машин между собой при необходимости отключить один из нод.
    3 и более - это хорошо, но тогда, когда есть на это лишние финансы и логическое обоснование. А не тогда, когда на этом кластере крутятся 7 конейнеров с виртуаками, не требующие HA
     
     
  • 4.85, Аноним (86), 19:32, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Третья нода и на малине в виде q-device для кворума нормально поднимается. Просто если ha кластер из двух нод и одна вдруг отключилась по той или иной причине, то всё, приехали, стопнуть виртуалку можно, а вот запустить уже откажется, мол нет кворума и всё такое, все станет read only и т.д.
     
     
  • 5.95, whowhowho (?), 14:13, 26/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    и это правильно (по дефолту)
    и вопрос решается одной командой:
    pvecm expected 1

     

  • 1.35, Аноним (35), 11:43, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Проксмос создает диски для ВМок в lvm ?
    Все функции есть в вирт-менеджере, здесь только визуализация сделана.Вот совсем не понимаю, зачем использовать это, когда все можно сделать, просто поставив квм и настроив его
     
     
  • 2.53, аноним123 (?), 14:04, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Да
    И в lvm-thin тоже умеет...
     
  • 2.75, dalco (ok), 16:45, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    virt-manаger, к сожалению, слишком примитивен. Он хорош, когда у тебя до десятка статически настроенных виртуалок, которые работают, работают и работают...

    А когда количество виртуалок ближе к полусотне, примитивный GUI virt-manager'а, мягко говоря, не справляется с задачами.

    Да банально виртуалки на группы разбить - даже патчи предлагали, но нет, низзя, тогда конкуренция кокпиту будет (так разрабы открытым текстом и сказали).

    Или управление бэкапами виртуалок - да нет его там в принципе, клепай свои костыли.

    Плюс, попробуй поуправляй virt-manager'ом с любого браузера через веб-интерфейс, загляни на экран конкретной виртуалки, пытаясь понять - с фига ли она зависла? Не выйдет, а у Proxmox'а можно.

    Дошло до того, что мне дома пришлось внутри virt-manager'а поднять кластер proxmox'а, а уже внутри кластера запускать почти все наличные виртуалки. И, знаете, назад, к одному virt-manager'у я уже не вернусь.

    Когда-то я тоже был фанатом virt-manager'а, но пришлось взгляды поменять :)

     

  • 1.39, Яровая (?), 12:08, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Если кому интересно, импорт ВМ с vmware esxi работает, переносятся и запускаются даже VM с secureboot, так что вполне можно пользовать.
     
  • 1.41, Аноним (41), 12:25, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Теперь точно XEN всё. А жаль, хорошая идея была.
    Но настало время аппаратной виртуализации :)
     
     
  • 2.66, Минона (ok), 15:41, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    А в ксене какая виртуализация?
     
     
  • 3.68, Аноним (49), 15:57, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    В общем смысле - никакая. Зен - это гипервизор, но устройства паравиртуализируются.
     

  • 1.55, Аноним (55), 14:17, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Вопрос к экспертам.
    Есть плата Supermicro X7DWU. К плате подключен железный рейд адаптер Adaptec RAID 5404/5405Q, через него организован рейд1. До этого там стоял вин сервер 2003. Проблемы не было.
    После установки вместо вин сервера сабжа начались непонятки. Любой ребут может закончиться ошибкой биоса "операционные системы не найдены". Лечится повторным ребутом через ктрл+аль+дел, но это бред какой-то.
    Сервер чисто тестовый, на нём обкатываю обновы, но ходить в серверную каждый раз, когда такое на рандоме случится что-то как-то не очень.
    При возврате винды всё чинится.
    Вот и не понимаю это биоса проблема или куда копать?
     
     
  • 2.73, anonymmmeer (?), 16:40, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    https://www.serverparts.pl/en/x7dwu-i5428

    Memory type support DDR2
    Availability: EOL

    https://storage.microsemi.com/en-us/support/raid/sas_raid/sas-5405/

    Management Utilities

    Adaptec Storage Manager™ (ASM)
    • Java-based GUI Management Utility <<<<

    потыкай сюда

    обнови биос или задержку какую поставь на загрузку

     
     
  • 3.104, Аноним (104), 08:22, 28/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Биос последней версии, и на матери, и на рейд контроллере, задержка в биосе стоит 30 сек задержки "раскрутки дисков".
    А доп драйвер что-то не пойму как и зачем он, но посмотрю что это такое, спасибо...
     
  • 2.84, ШирлаМырла (?), 18:11, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +/
    Купите туда пару SSD-дисков на 120 Гиг за 1 тыс рублей штука и перестаньте грызть кактус.

    Если вам так дороги ваши диски в RAID-1, поставьте их вторыми. Первыми, под систему, SSD. Хотя бы один. На сраном SATA-порту со скоростью 6 мегабит/с.

    Ей богу. Вам понравится.

    P.S. Контроллер SATA на 2 порта в сервер, купите там же. Рублей за 500.

     

  • 1.67, Минона (ok), 15:46, 25/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > Осуществлена синхронизация с пакетной базой Debian 12.5

    В каком смысле синхронизация?
    Пакеты дебиана ставятся из репы дебиана, чего они там синхронизируют.

     
     
  • 2.69, Аноним (49), 15:58, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Просто свой исошник обновили до Debian 12.5
     
  • 2.79, ШирлаМырла (?), 17:29, 25/04/2024 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Они в Инсталятор PVE 8.2 поставили свежие пакеты из Дебиана. Тем самым после инсталяции не будешь тянуть пол гига из Интернета для обновлений пакетов. Вот и вся синхронизация.

     

  • 1.96, Аноним (96), 16:02, 26/04/2024 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Самый удобный и простой дистр для виртуализации для мелких сетей.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру