The OpenNET Project / Index page

[ новости/++ | форум | wiki | теги | ]

06.10.2015 22:37  Релиз Proxmox VE 4.0, дистрибутива для организации работы виртуальных серверов

Состоялся релиз Proxmox Virtual Environment 4.0, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа 678 Мб. Начиная с выпуска 3.1 по умолчанию предлагается платный репозиторий Enterprise, возможность использовать бесплатный репозиторий сохранена и он является достаточно стабильным, но создатели дистрибутива не гарантируют качество его работы не рекомендуют к промышленному использованию.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Пакетная база синхронизирована с Debian Jessie 8.2 (прошлый выпуск был основан на Debian Wheezy). Ядро Linux обновлено до версии 4.2. QEMU обновлён до версии 2.4.
  • Добавлен менеджер кластеров высокой доступности (HA), позволяющий развернуть готовый кластер в несколько кликов в графическом интерфейсе. После создания кластера виртуальные машины зеркалируются одновременно на несколько серверов и в случае выхода из строя одного сервера, выполняемые на нём виртуальные машины автоматически запускаются на другом узле кластера.
  • Полная поддержка IPv6.
  • Для управления изолированными контейнерами вместо OpenVZ задействован инструментарий LXC. Конвертация OpenVZ в LXC поддерживается через процедуру резервного копирования с последующим восстановлением.
  • Добавлено распределенное реплицируемое блочное устройство DRBD9 с drbdmanage;
  • Множество исправлений и обновлений пакетов.

Ветка Proxmox VE 3.x будет поддерживаться до конца поддержки Debian Wheezy (прекращение выпуска обновлений безопасности ожидается в мае 2018 г.).

  1. Главная ссылка к новости (http://forum.proxmox.com/threa...)
  2. OpenNews: Релиз дистрибутива для создания виртуальных серверов Proxmox VE 3.4
Автор новости: tonys
Тип: Программы
Ключевые слова: proxmox
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение Ajax/Линейный | Раскрыть все сообщения | RSS
 
  • 1.1, grec (?), 23:12, 06/10/2015 [ответить] [показать ветку] [···]    [к модератору]
  • +/
    >  вместо OpenVZ задействован инструментарий LXC.

    Опенвз таки скатился.  

     
     
  • 2.24, Аноним (-), 13:00, 07/10/2015 [^] [ответить]    [к модератору]
  • +/
    Не факт. И еще сильнее я сомневаюсь в том, что LXC уже закатился.
     
  • 1.2, Аноним (-), 01:41, 07/10/2015 [ответить] [показать ветку] [···]    [к модератору]
  • –2 +/
    Кто нибудь сравнивал с oVirt?
     
     
  • 2.3, leap42 (ok), 04:00, 07/10/2015 [^] [ответить]     [к модератору]
  • –2 +/
    тестил обе две сложилось впечатление, что они из разных весовых ovirt можно по... весь текст скрыт [показать]
     
     
  • 3.4, daemontux (?), 04:56, 07/10/2015 [^] [ответить]    [к модератору]  
  • +7 +/
    > тестил обе две. сложилось впечатление, что они из разных весовых: ovirt можно
    > поставить на одну ноду весь, но лучше этого не делать (минимальная
    > поддерживаемая установка предполагает три ноды), да и RH серьёзная фирма. PVE
    > как-то не впечатлил, но многие пользуются (что лично меня удивляет -
    > сейчас бесплатна виртуализация на любой вкус: vmware для ретроградов, hyper-v для
    > тех у кого много виндов, xenserver для всех)

    У proxmox удобный web инитерфейс , + под копотом обычный дебиан, единственное отличие ведро от красношляпа. У меня он стоит на одной ноде, мне больше и не нужно.
    Для руления vmware (esxi) нужна винда и есть проблемы если ставите на обычное десктопное железо (soft raid не поддерживает). Предлагать hyper-v вообще не прелично на данном ресурсе.
    А xen мне не интересен ибо мне больше нравится kvm.

    Вобщем мое мнение для  случаев где не нужно много нод и нужен простой веб интерфейс. самое оно.

     
     
  • 4.12, Аноним (-), 10:14, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Зато прилично, видимо, писать с ошибками Hyper-V, кроме что рулить им нужно с в... весь текст скрыт [показать]
     
     
  • 5.21, Аноним (-), 12:01, 07/10/2015 [^] [ответить]    [к модератору]  
  • +1 +/
    > Зато прилично, видимо, писать с ошибками.
    > scrube

    scrub

     
  • 5.32, . (?), 16:41, 07/10/2015 [^] [ответить]    [к модератору]  
  • +3 +/
    Hyper-V в ТОПКУ! Это я вам как практикующий админ этого ... решения говорю. Причём железа - уссытесь от зависти! И всё одно - пурген ...
     
     
  • 6.42, Аноним (-), 07:59, 08/10/2015 [^] [ответить]     [к модератору]  
  • +/
    опишите свои проблемы с hyper-v, а я, как практикующий админ практикующему админ... весь текст скрыт [показать]
     
     
  • 7.51, Птолемейсхордойнаперевес (?), 22:22, 08/10/2015 [^] [ответить]     [к модератору]  
  • +1 +/
    Эм При проблемах с питанием фича превратить в какаху фс гостей а так же др... весь текст скрыт [показать]
     
     
  • 8.52, Аноним (-), 07:38, 09/10/2015 [^] [ответить]    [к модератору]  
  • –1 +/
    на hyper-v 2008 который даже не vhdx, никаких проблем не было
     
     
  • 9.64, Птолемейсхордойнаперевес (?), 02:33, 10/10/2015 [^] [ответить]    [к модератору]  
  • +/
    По ходу с репрезентативностью тоже проблемы.
     
     
  • 10.66, Аноним (-), 04:24, 10/10/2015 [^] [ответить]     [к модератору]  
  • –1 +/
    сформулирую корректнее захотелось мне kvm с человеческим лицом - поставил я pro... весь текст скрыт [показать]
     
     
  • 11.74, billybons2006 (ok), 21:57, 29/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Вставлю свои пять копеек За полтора года работы Hyper-V ни разу не подвел Равн... весь текст скрыт [показать]
     
  • 7.70, Аноним (-), 18:10, 10/10/2015 [^] [ответить]     [к модератору]  
  • +2 +/
    Продумывать резервное питание ни кто не отменял У меня 450 гостей под pve в... весь текст скрыт [показать]
     
  • 4.14, Anonymous7 (?), 10:54, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > Для руления vmware (esxi) нужна винда

    Не правда, уже давно рулить можно через веб клиент на любой платформе.

     
     
  • 5.49, ryoken (?), 21:33, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > Не правда, уже давно рулить можно через веб клиент на любой платформе.

    Без богомерзкого флэша?

     
  • 5.57, fuzzi (ok), 11:23, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    да наверное, я что-то не умею 6-я вСфера To view this page ensure that Ado... весь текст скрыт [показать]
     
     
  • 6.62, Anonymous7 (?), 20:07, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Ну речь шла о том, что рулить можно только из винды, а это не правда, как миниму... весь текст скрыт [показать]
     
     
  • 7.65, Птолемейсхордойнаперевес (?), 02:44, 10/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Шурупы с прямым щлицом, тоже можно ножницами закручивать И вообще, у vmware, вс... весь текст скрыт [показать]
     
     
  • 8.67, Celcion (ok), 07:14, 10/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Не все Классический толстый vSphere client - вполне нормальный по скорости Что... весь текст скрыт [показать]
     
  • 4.15, Guest (??), 10:57, 07/10/2015 [^] [ответить]    [к модератору]  
  • +4 +/
    Внесу корректировочку в 4.0 теперь ядро от Ubuntu в том числе из-за LXC
     
     
  • 5.35, daemontux (?), 17:22, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > Внесу корректировочку в 4.0 теперь ядро от Ubuntu в том числе из-за
    > LXC

    СПС за инфу. на днях пощупаю )

     
  • 5.36, Andrey Mitrofanov (?), 17:39, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Кто сказал, что прямо-таки именно из убунту Сравниваем Там ввирху Релиз Pr... весь текст скрыт [показать]
     
     
  • 6.39, Guest (??), 19:54, 07/10/2015 [^] [ответить]    [к модератору]  
  • +3 +/
    http://forum.proxmox.com/threads/22533-Proxmox-VE-4-0-beta1-released!?p=113623#post113623
     
  • 3.9, Celcion (ok), 09:39, 07/10/2015 [^] [ответить]     [к модератору]  
  • –1 +/
    Бесплатность и того и другого варианта - весьма условна В первом вообще лишь ... весь текст скрыт [показать]
     
     
  • 4.11, Anonimous (?), 10:10, 07/10/2015 [^] [ответить]    [к модератору]  
  • +1 +/
    >И никакой кластеризации, естественно, ни в том, ни в другом "бесплатном" варианте.

    В hyperv есть кластеризация и в бесплатном варианте.

     
     
  • 5.18, Celcion (ok), 11:25, 07/10/2015 [^] [ответить]     [к модератору]  
  • –1 +/
    Возможность существования такого кластера без домена AD появилась совсем недавно... весь текст скрыт [показать]
     
     
  • 6.43, Аноним (-), 08:22, 08/10/2015 [^] [ответить]    [к модератору]  
  • +1 +/
    и сколько нынче за samba4 берут? я просто не в курсе, бесплатно скачал и AD развернул...
     
     
  • 7.47, Celcion (ok), 17:40, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > и сколько нынче за samba4 берут? я просто не в курсе, бесплатно
    > скачал и AD развернул...

    Хорошая шутка, Евгений Ваганович!

     
     
  • 8.53, Аноним (-), 07:57, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    а по делу есть что сказать или вы думаете что ваша некомпентность распространяе... весь текст скрыт [показать]
     
     
  • 9.54, Celcion (ok), 09:26, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Высказавшийся не по делу человек хочет, чтобы я высказался по делу Хм Вас ... весь текст скрыт [показать]
     
     
  • 10.55, Аноним (-), 10:40, 09/10/2015 [^] [ответить]    [к модератору]  
  • +/
    ок, специально для вас сформулирую проще: существует бесплатная реализация АД, которая называется samba. она делает ваш аргумент про платность hyper-v окончательно несостоятельным.
     
     
  • 11.56, Celcion (ok), 10:50, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Формулирую специально для вас - работа кластеров MS CS на доменах Samba не подде... весь текст скрыт [показать]
     
     
  • 12.58, Аноним (-), 11:55, 09/10/2015 [^] [ответить]     [к модератору]  
  • +/
    ок, постараюсь еще проще дискуссия была о платности это о деньгах, если что ... весь текст скрыт [показать]
     
     
  • 13.60, Celcion (ok), 18:56, 09/10/2015 [^] [ответить]     [к модератору]  
  • +1 +/
    Нет, дискуссия была слегка не об этом Но мы же видим то, что нам удобнее Где ... весь текст скрыт [показать]
     
  • 4.33, . (?), 16:46, 07/10/2015 [^] [ответить]     [к модератору]  
  • –2 +/
    Это - да - Но при этом хайпер - О НО на любом железе А ESXi 5 5 у меня на H... весь текст скрыт [показать]
     
     
  • 5.34, Celcion (ok), 17:04, 07/10/2015 [^] [ответить]     [к модератору]  
  • +1 +/
    Хм Вообще-то, первый GA 5 5 вышел два года тому назад Ну, потому там такие к... весь текст скрыт [показать]
     
  • 5.59, xv (??), 16:57, 09/10/2015 [^] [ответить]    [к модератору]  
  • +/
    А уже на DL180 G6 тот же ESXi 5.5 любит показывать сиреневые экраны, такие дела.
     
     
  • 6.63, Celcion (ok), 20:17, 09/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > А уже на DL180 G6 тот же ESXi 5.5 любит показывать сиреневые
    > экраны, такие дела.

    А у нас в квартире газ, а у вас? :-)

     
  • 5.72, Ps (?), 09:11, 16/10/2015 [^] [ответить]     [к модератору]  
  • +/
    gt оверквотинг удален Пост ни о чем Десяток proxmox-ов начинаю с версии 1 7 ... весь текст скрыт [показать]
     
     
  • 6.73, Celcion (ok), 15:05, 16/10/2015 [^] [ответить]     [к модератору]  
  • +/
    ESXi - голый гипервизор, он почти ничего не умеет делать сам Он больше подход... весь текст скрыт [показать]
     
  • 2.5, daemontux (?), 05:00, 07/10/2015 [^] [ответить]     [к модератору]  
  • +4 +/
    Ставил год назад По мне так оно для больших кластеров Если нужно 1 - 3 ноды т... весь текст скрыт [показать]
     
     
  • 3.22, Аноним (-), 12:04, 07/10/2015 [^] [ответить]    [к модератору]  
  • –3 +/
    Для мелких контор: Если речь идёт об 1 хосте с аппаратным рейдом - то проще php-virtualbox.
    Звучит подобно стёбу, но это слишком просто.
     
     
  • 4.37, daemontux (?), 18:01, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > Для мелких контор: Если речь идёт об 1 хосте с аппаратным рейдом
    > - то проще php-virtualbox.
    > Звучит подобно стёбу, но это слишком просто.

    У виртуального ящика проблемы с производительностью

     
     
  • 5.40, Аноним (-), 21:50, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    И не только. Я имел в виду, что навращать его на 1 машине проще, даже чем поставить прохмох.

    Если о себе, то на 1 ноде хватит прохмоха или даже просто virsh, а на чём-то большем - только опенстек

     
  • 2.16, Watcher (??), 11:01, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Пробовал оба Задача была получить HA кластер для виртуалок oVirt - более сложе... весь текст скрыт [показать]
     
  • 2.31, Legba (?), 15:30, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    oVirt поможет понять идеологию корпоративной платформы виртуализации - Датацентр... весь текст скрыт [показать]
     
  • 2.69, Magvegva (?), 13:45, 10/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Эту версию не тестил Предыдущая 3 5, еслти не ошибся - очень нестабильно себя... весь текст скрыт [показать]
     
  • 1.6, nur (ok), 07:45, 07/10/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +1 +/
    >> Добавлен менеджер кластеров высокой доступности (HA), позволяющий развернуть готовый кластер в несколько кликов в графическом интерфейсе. После создания кластера виртуальные машины зеркалируются одновременно на несколько серверов и в случае выхода из строя одного сервера, выполняемые на нём виртуальные машины автоматически запускаются на другом узле кластера.

    надо понимать - наконец то нормальный полноценный кластер?

    >> Для управления изолированными контейнерами _вместо_ OpenVZ задействован инструментарий LXC. Конвертация OpenVZ в LXC поддерживается через процедуру резервного копирования с последующим восстановлением.

    прямо так - вместо? опенвз больше не будет работать?
    напомните пожалста, чем лхц так плох?
    а то например опенвз как то глючно работает с железными сетевухами, не всегда их видит (конкретный случай - Intel I350 из 4 портов у меня видело только один) а уж на тему как в опенвз добиться работы iptables nat, mangle - вообще мануалов куча, из серии шаманства

     
     
  • 2.7, Аноним (-), 08:54, 07/10/2015 [^] [ответить]    [к модератору]  
  • +1 +/
    Ты новость читал? Да, вместо.
    Openvz не имеет отношения к драйверам сетевой карты, большой привет ядру линукса, драйверам от производителя сетевушки и прокладке между первым и вторым.
     
  • 2.25, Аноним (-), 13:24, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/

    > опенвз добиться работы iptables nat, mangle - вообще мануалов куча, из
    > серии шаманства

    no problem
    или надо iptables внутри контейнера?

     
     
  • 3.29, nur (ok), 15:04, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > или надо iptables внутри контейнера?

    именно, в чем смысл на ноде делать файрвол если там чаще всего локальный приватный адрес?


     
  • 1.8, dkg (?), 09:30, 07/10/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +5 +/
    The best. Vmware отдыхает.
     
     
  • 2.10, Celcion (ok), 09:49, 07/10/2015 [^] [ответить]    [к модератору]  
  • –7 +/
    > The best. Vmware отдыхает.

    Для небольших компаний - однозначно. Для более-менее крупного бузинеса - слишком овощное решение.

     
     
  • 3.23, Аноним (-), 12:06, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    В крупном и среднем бузинесе уже давно опенстек.
     
     
  • 4.28, Celcion (ok), 14:53, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    > В крупном и среднем бузинесе уже давно опенстек.

    Смотря где. Для частных облаков с виндовыми виртуалками - варь пока еще впереди. Но как будет дальше - непонятно, потому что рынок активно меняется.

     
     
  • 5.38, Аноним (-), 18:03, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    здесь и опенстек, и хипстер-в, и vmare Но сейчас даже самые закостенелые и махр... весь текст скрыт [показать]
     
  • 1.13, Аноним (-), 10:46, 07/10/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +1 +/
    С учетом перехода openvz -> lxc думаю, что раньше 4.1 трогать не стоит. Кстати, в эту версию они вкорячили ядро от убунты 15.10.
     
  • 1.17, Аноним (-), 11:15, 07/10/2015 [ответить] [показать ветку] [···]     [к модератору]  
  • +/
    Кто-то обновлялся уже На сколько страшно происходит процесс обновления кластера... весь текст скрыт [показать]
     
     
  • 2.19, nur (ok), 11:29, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    в нашей работе всегда надо прогнозировать самый худший вариант - так легче и безболезннее будет приступить к неизбежным исправлениям

    а учитывая мое сообщение выше - мне почему то кажется что это вообще другой вид кластера и оно вообще несовместимо

     
     
  • 3.20, Аноним (-), 11:39, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Да вот меня тоже всё чаще посещает мысль, что проще рядом ещё один кластер собра... весь текст скрыт [показать]
     
     
  • 4.26, Аноним (-), 13:26, 07/10/2015 [^] [ответить]     [к модератору]  
  • +/
    В шапке что-то было про миграцию через бекапы За сутки наверно можно все перене... весь текст скрыт [показать]
     
     
  • 5.27, Аноним (-), 14:06, 07/10/2015 [^] [ответить]    [к модератору]  
  • +/
    Сутки я только CEPH буду обновлять (это в лучшем случае).
     
  • 4.30, nur (ok), 15:06, 07/10/2015 [^] [ответить]    [к модератору]  
  • +1 +/
    > Да вот меня тоже всё чаще посещает мысль, что проще рядом ещё
    > один кластер собрать, раскатать виртуалки на нём, а старый потушить и
    > сделать реинсталл и присоединить к свежему кластеру, но тут остро сказывается
    > дефицит железа.

    зачем тушить весь кластер? надо его размонтировать, одну машину вывести из кластера, на ней установить новый прохмох, и по одному гостю перекидывать туда
    потом следущий комп итд

    5 нод - никак нельзя назвать "дефицитом железа"

    указаная тобой цель как я понял - нулевой даунтайм виртуалок, про то, сколько времени у тебя уйдет на весь процесс - ты не говорил выше )


     
  • 2.46, Аноним (-), 13:17, 08/10/2015 [^] [ответить]     [к модератору]  
  • +/
    Обновил в виртуалке, так как nested kvm я не настраивал, то там был openvz Соот... весь текст скрыт [показать]
     
     
  • 3.48, nur (ok), 19:41, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    в опенвз как раз все просто залезть внутрь до того как оно запустится - по умолчанию всё находится в /var/lib/vz/private
     
  • 1.41, InventoR (??), 23:16, 07/10/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    Ура товарищи, вот как раз собираюсь строить новый кластер, предыдущий исчерпал себя. 15 нод кластера в продакте, 2.5 года, аптайм уже от пол года до года на нодах, главное условие не используйте LVM, только ceph.
     
     
  • 2.44, Аноним (-), 08:39, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    почему не надо использовать LVM?
     
     
  • 3.45, leap42 (ok), 10:04, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    потому, что "эксперты по PVE" не читали best practices по kvm
     
     
  • 4.50, Птолемейсхородойнаперевес (?), 22:21, 08/10/2015 [^] [ответить]    [к модератору]  
  • +/
    Подробнее пожалуйста, что конкретно не так?
     
  • 3.71, InventoR (??), 14:16, 14/10/2015 [^] [ответить]    [к модератору]  
  • –1 +/
    В какой-то момент прилетает lock на одном из томов LVM, в итоге весь rgmanager ставится раком на кластере, fence не отрабатывает так как не видит проблем, clustat рапортует что все гуд, group_tool ls тоже самое, а lvm стоит раком, потом начинается зловещий поиск какая нода заблокировала том.
    Также посмотрите внимательно pvestatd, он раз в 10 секунд дергает всю инфу о машинах с lvm томов и так на каждой ноде, в итоге пока у тебя мало нод все работает сносно, как только количество нод вырастает начинается такие чудеса что LVM стоит раком.
    Под LVM для кластера подразумевается clvm кто еще не понял, штука очень редкая как оказалось и глючная, к тому же не дает достаточно информации чтобы понять какая именно нода дала сбой в работе.

     
  • 1.61, Аноним (61), 19:55, 09/10/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    у меня LVM на 6 нодах, около 200 виртуалок, полет нормальный
     
  • 1.68, Аноним (-), 12:00, 10/10/2015 [ответить] [показать ветку] [···]     [к модератору]  
  • +/
    Использую pve 3 3 с одной нодой как тестеровочную среду для серверного продукта ... весь текст скрыт [показать]
     
  • 1.75, василий (??), 10:09, 24/11/2015 [ответить] [показать ветку] [···]    [к модератору]  
  • +/
    Обновление ProxmoxVE 3.4 до 4.
    http://vasilisc.com/upgrade-proxmox-3-4-to-4
     

     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:


      Закладки на сайте
      Проследить за страницей
    Created 1996-2018 by Maxim Chirkov  
    ДобавитьПоддержатьВебмастеруГИД  
    Hosting by Ihor