The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Релиз системы виртуализации Xen 4.1

26.03.2011 10:34

После одиннадцати месяцев разработки представлен релиз свободного гипервизора Xen 4.1. По сравнению с прошлым выпуском в Xen 4.1 внесено 1906 коммитов, в подготовке которых приняло участие 102 разработчика и 25 организаций. Кроме того, около 400 коммитов связанных с поддержкой Xen, было принято в состав основной ветки Linux-ядра. Ожидается, что интеграция оставшихся бэкенд-драйверов, необходимых для обеспечения работы Xen Dom0 из коробки, будет завершена в Linux-ядре 2.6.39.

Из ключевых улучшений Xen 4.1 можно отметить:

  • Переработана архитектура и расширены возможности инструментария XL, заменяющего собой XM/XEND. XL базируется на использовании библиотеки libxenlight, предоставляющей простой и надежный управляющий API. Функционально XL эквивалентен и обратно совместим с ранее созданными для XM файлами конфигурации. В версии Xen 4.1 поддержка XEND сохранена, но пользователям рекомендуется продумать обновление до XL. В настоящее время ведется работа по переводу xapi и libvirt на использование новой библиотеки libxenlight;
  • Интегрирован прототип планировщика credit2, способного оптимально обслуживать большие системы и созданного для обеспечения функционирования чувствительных к задержкам конфигураций (latency-sensitive), таким как обработка звука или выполнение сетевых функций. По сравнению с планировщиком credit1 код credit2 был полностью переписан и оптимизирован для систем с большим числом CPU. Credit2 пока находится на стадии прототипа и сможет занять место основного планировщика после окончательной рихтовки алгоритмов. Тем не менее, код credit2 уже достаточно стабилен для начала его активного применения;
  • Поддержка CPU-пулов (CPU pools) и расширенных способов разделения ресурсов сервера (partitioning), дополняющих такие стандартные механизмы планировщика credit1 как привязка CPU к виртуальному окружению и расстановка приоритетов. CPU-пулы предоставляют возможность логического разбиения физических CPU на группы, каждый из CPU-пулов снабжен отдельным планировщиком и занимается обслуживанием только заданного набора виртуальных окружений. Подобный подход не только значительно повышает гибкость разбиения процессорных ресурсов сервера, но и позволяет использовать разные типы планировщиков для разных пулов, более оптимальные для выполняемых в привязанных к пулу виртуальных окружений;
  • Поддержка больших систем, построенных на базе архитектуры Intel x2APIC и состоящих из боле чем 255 процессоров. В будущем ожидается появление поддержки для EPT/VTd больших страниц памяти (1GB/2MB super pages), сокращающих число используемых TLB-блоков (Translation Lookaside Buffer);
  • Поддержка AVX-расширений системы команд x86 CPU (Advanced Vector eXtension). В Xen обеспечена возможность использования при работе паравиртуализированных гостевых окружений инструкций xsave и xrestor, доступных в новых процессорах Intel;
  • Новый API для управления доступом к памяти (mem_access API), позволяющий интегрировать в Xen окружения сторонние системы обеспечения безопасности. API позволяет привилегированным Xen-доменам перехватывать и обрабатывать ситуации обращения к невыделенным страницам памяти (memory faults), что дает возможность подключать сторонние средства контроля за безопасностью и определения активности вредоносного ПО;
  • Новый набор автоматизированного регрессивного тестирования;
  • Расширение поддержки PXE-загрузки гостевых систем, работающих в режиме аппаратной виртуализации (HVM), за счет замены gPXE на iPXE;
  • Осуществлено слияние с libvirt стороннего libvirt-драйвера для libxl;
  • Отмечены многочисленные исправления в IOMMU, связанные с поддержкой Intel VT-d IOMMU и AMD IOMMU. Устранены недоработки в инструментарии и системе сборки для Linux и NetBSD хостов.

Дополнительно продолжается работа по обеспечению поддержки Xen dom0 и Xen guest в немодифицированных поставках различных Linux-дистрибутивов. Степень поддержки Xen в различных дистрибутивах можно оценить на данной странице. Из достигнутых успехов отмечается разработка кода для поддержки Xen в Qemu (код пока не включен в состав Qemu); интеграция в Linux-ядро 2.6.38 базовой поддержки dom0 (код пока не позволяет запускать VM без дополнительных бэкенд-драйверов, которые планируется интегрировать в следующий релиз Linux-ядра); переписанные Xen PV-on-HVM драйверы вошли в состав Linux-ядра 2.6.36, а в ядро 2.6.37 принят код дополнительных оптимизаций к PV-on-HVM.

  1. Главная ссылка к новости (http://blog.xen.org/index.php/...)
  2. OpenNews: Анонсирован выход Xen Cloud Platform 1.0
  3. OpenNews: Рассматривается возможность возвращения поддержки Xen Dom0 в Fedora Linux
  4. OpenNews: Корректирующий релиз гипервизора Xen 4.0.1
  5. OpenNews: Релиз системы виртуализации Xen 4.0
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/30034-xen
Ключевые слова: xen, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (55) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Vitold S (?), 13:22, 26/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Есть ли опыт использования у кого-то Xen в коммерческих целях? На сколько это надежно/стабильно? Можно ли начинать промышленное использование?
     
     
  • 2.3, ананим (?), 13:28, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –2 +/
    вообще-то только он реально в коммерческих целях и используется - и редхэтом (в котором хотят на kvm перейти), и ораклом (в котором остались на xen и переходить пока не думают), и  в SLES/OES, и в Citrix XenServer.
    реальная альтернатива сейчас это только вмваре.
     
     
  • 3.7, Dim (??), 14:16, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    вообще-то RH уже давно перешли на KVM. "пытаются" было где-то 3 года назад
     
     
  • 4.9, ананим (?), 14:23, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    не давно, а только с вышедшей недавно 6 версии.
     
     
  • 5.10, Dim (??), 14:27, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > не давно, а только с вышедшей недавно 6 версии.

    KVM официально в RHEL с версии 5.4

     
     
  • 6.12, ананим (?), 14:31, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –5 +/
    фраза "перешла" - это когда xen'а не стало в списке поддерживаемых.
     
     
  • 7.13, Dim (??), 14:35, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > фраза "перешла" - это когда xen'а не стало в списке поддерживаемых.

    а я думал разговор идет о использовании в коммерческих целях, в продакшен. потому что куча народа использует KVM именно так, с RHEL5.4 и выше.

     
     
  • 8.15, ананим (?), 15:00, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –3 +/
    ну, куча народу использует и xen на том же рэдхэте перешла - это перешла оконч... текст свёрнут, показать
     
     
  • 9.17, Dim (??), 15:55, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    ну, внутренние гипервизоры все на KVM 1514 так что да - перешла... текст свёрнут, показать
     
     
  • 10.18, ананим (?), 16:35, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    речь шла о коммерческом использовании так что окончательно и бесповоротно что ... текст свёрнут, показать
     
  • 7.16, anonymous (??), 15:29, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Основное решение виртуализации от редхат, RHEV, вышло больше, чем "несколько месяцев" назад - до 6-ки точно - и оно построено полностью на базе KVM, xen там поддерживается только с точки зрения инструментов миграции с него :)
     
  • 2.6, анон (?), 14:04, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Если не считать разводил, которые вместо vds дают openvz/jail, то практически все vds'ы у современных хостеров работают на xen либо vmware. Причём у ксена там доля очень неслабая.
     
     
  • 3.21, Pilat (ok), 17:31, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Hetzner, к примеру, даёт KVM.
     
  • 2.8, Denis (??), 14:17, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Amazon Web Services на нем построены.
     
  • 2.20, bliss (?), 16:48, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Использую как ксен, так и квм для виртуализации линукса и венды. Хост-система -- дебиан (сквиз, ленни). Вендовые виртуалки (w2k3) -- терминальные сервера 1С (v7.7, v8.1), линуксовые -- в основном дебиан, ленни и сквиз, для тестовых целей крутится пара виртуалок под центосью. Отказался от КсенСервер (Цитрикс) в пользу КВМ. Ксен оставил только там, где процессоры не поддерживают аппаратную виртуализацию. Решающей причиной перевода на квм с ксен-сервер была впечатляющая производительность КВМ и отсутствие заморочек с лицензиями и прочей сранью со стороны ксен-сервера. Проблем нет. Аптайм вендовых виртуалок -- месяцами :) Про линукс вообще молчу, они годами работают. Из недостатков свободного ксен-квм -- только отсутствие развитого вменяемого фронтэнда, хотя бы по типу ксен-центр для КсенСервера. Хотя сама либвирт достаточно развита, чтобы управлять удаленно, все-таки хочется полноценную веб-морду. Начал недавно играться karesansui, но до ума еще не довел. Городить огород с решениями типа oVirt не хочется.
     
     
  • 3.27, Бублик (?), 03:15, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, скажем так, мелкие проблемы есть. К примеру, слёты ф/с и ошибки в них в случае остановки дочки с w2k3 не через механизмы этой самой дочки, а через xm. С kvm-ом таких проблем нет. Правда, kvm с virtio сливает по скорости работы с дисками неофициальным pv-драйверам для венды, с сетью такая же ситуация. Но, опять же, kvm работает более предсказуемо.
     
     
  • 4.29, bliss (?), 10:25, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Если честно, ничего из описанного Вами не наблюдалось. Ставил PV драйверы для венды, но, по моим замерам, они ощутимо сливали драйверам виртио... В КВМ, опять же, для остановки виртуалок используются стандартные механизмы системы (просто нужно настроить некоторые политики), а не служба, устанавливаемая PV драйверами. Повторюсь -- мне важна была система, которая не уступала бы по производительности ксен-сервер с их драйверами. С КВМ это у меня получилось.
     
     
  • 5.36, Бублик (?), 10:04, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А, вы про КсенСервер. Я же про Ксен просто. КсенСервер не использовал.
     
  • 4.30, bliss (?), 10:27, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Ну, скажем так, мелкие проблемы есть. К примеру, слёты ф/с и ошибки
    > в них в случае остановки дочки с w2k3 не через механизмы
    > этой самой дочки, а через xm. С kvm-ом таких проблем нет.
    > Правда, kvm с virtio сливает по скорости работы с дисками неофициальным
    > pv-драйверам для венды, с сетью такая же ситуация. Но, опять же,
    > kvm работает более предсказуемо.

    Да, у меня виртуалки на LVM. Может, это вносит свою лепту...


     
     
  • 5.35, Анон (?), 07:16, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Используешь cache=none ?
     
     
  • 6.38, bliss (?), 10:10, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    нет, дефолт -- writethrough
     
  • 5.37, Бублик (?), 10:08, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Да, у меня виртуалки на LVM. Может, это вносит свою лепту...

    У меня они на софтовом раиде, поверх него drbd, а там уже lvm lv под виртуалки. Но я предполагаю к лету на всех обслуживаемых узлах перейти на kvm.

     
  • 3.31, DeadLoco (ok), 11:59, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    В Xen Cloud Platform версии 1.0, которая три недели тому вышла, уже поддерживается цитрусовый ХенЦентер. Не полностью, в некоторых диалогах вылетает, но на 99% уже работает.
     
  • 3.40, icy (?), 14:39, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А Proxmox не прбовалали? http://pve.proxmox.com
    Имхо, очень неплохая управлялка kvm + openvz в виде bare-metall инсталлера (based on Debian x64)
     
  • 2.39, SubGun (ok), 10:52, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    У Хеn ограничен список поддерживаемых ОС: Fedora, RH, SuSe(все), Windows.
     
     
  • 3.52, Бублик (?), 10:27, 29/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > У Хеn ограничен список поддерживаемых ОС: Fedora, RH, SuSe(все), Windows.

    Вы, как и многие тут, путаете Xen и XenServer. У Xen таких ограничений нет.

     
  • 2.55, Игорь (??), 07:49, 17/06/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Более 2 лет на Xen 3.2.1 работают 3 сервера в продакшене. Использовал до этого использовал OpenVZ, но по возможностям, производительности и универсальности мне понравился именно Xen.
     

  • 1.2, ананим (?), 13:23, 26/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    про сроки выхода XCP на сабже не слышно?
     
     
  • 2.4, Gular (ok), 13:38, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Главная ссылка к новости (http://blog.xen.org/index.php/2011/03/25...)
    OpenNews: Анонсирован выход Xen Cloud Platform 1.0
    OpenNews: Рассматривается возможность возвращения поддержки Xen Dom0 в Fedora Linux
     
     
  • 3.5, Аноним (-), 13:49, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    XCP до сих пор основан на Xen 3.x, когда перейдут на Xen 4.x пока не известно.
     
  • 3.11, ананим (?), 14:28, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    XCP 1.0 на Xen 3.4.2
    http://www.xen.org/download/xcp/index.html
    а интресуют хотя бы планы с сабжем на борту
     
     
  • 4.14, Gular (ok), 14:41, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    К сожалению, этого не знаю. Использую голый Xen.
     
     
  • 5.19, ананим (?), 16:36, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    вот и я к_сожалению_не_знаю.
    а хотелось бы прояснить, может кто в курсе. решение то интересное.
     

  • 1.22, asdasd (?), 20:04, 26/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • –3 +/
    если вам нужно 30 виртуалок на разных тазиках то лучше использовать XEN, а если надо >30 виртуалок + кластерные фичи + у вас есть СХД блейды etc то альтернативы esx vmware просто нет
     
     
  • 2.23, Dim (??), 20:14, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > если вам нужно 30 виртуалок на разных тазиках то лучше использовать XEN,
    > а если надо >30 виртуалок + кластерные фичи + у вас
    > есть СХД блейды etc то альтернативы esx vmware просто нет

    что за чушь? что умеет вмварь чего не могут открытые решения? кроме, конечно, выписывания огромных счетов клиентам

     
     
  • 3.24, Mr. Mistoffelees (?), 23:14, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Может уважаемый сэр покажет открытое решение (а впрочем, и любое другое не-vmware закрытое подойдет), где fibre channel умеет делать trunk из нескольких физических каналов? Пример: ставим на железо Linux (или Windows, тот же результат), получаем скорость чтения/записи Х (работает только один физический канал, остальные - резерв); ставим под ним vmware, скорость становится почти 4*Х (работают паралельно все 4 физических канала, которые есть).

    WWell,

     
     
  • 4.25, denis (??), 23:35, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    если вы про вариант распределение нагрузки round robbin, то 4 параллельно работающих fc канала в esxi дают не суммирование скорости каналов, а переключение на следующий fc канал через каждые 1000 iops  ( настройка по умолчанию ). так что скорость останется такой же, как и скорость одиночного fc канала.
     
  • 4.26, Сергей (??), 23:54, 26/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Линуксовый малтипас в режиме актив-актив чем вам не подходит?
     
  • 4.28, kds20 (?), 09:05, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    1. Подключаешь по FC диски ( http://www.cyberciti.biz/faq/howto-linux-see-new-fiber-channel-attached-disk- )
    2. Делаешь RAID
    3. PROFIT
     
  • 4.32, haha (??), 21:32, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >открытое решение (а впрочем, и любое другое не-vmware закрытое подойдет), где fibre channel умеет делать trunk из нескольких физических каналов

    mdadm или lvm дядя в помощь в случае FC, ну или стандартный 802.1ad в случае FCoE.

    Внутри VmWare дядя тот же linux, те же механизмы, те же протоколы, те же драйвера, может что названия только другие, да значки™ стоят®, и агрегация там точно такая же.  

     
     
  • 5.34, анон (?), 03:44, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >mdadm или lvm дядя в помощь в случае FC

    Какой mdadm, какой lvm, вы с дуба упали? Это делается через dm-multipath.

    Не надо путать multipath с рейдом, это совершенно разные вещи.

     
  • 4.53, Бублик (?), 10:30, 29/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ну, во-первых, канал не будет 4Х. А, во-вторых, вам правильно указали на dm-multipath.
     
  • 2.33, haha (??), 21:36, 27/03/2011 [^] [^^] [^^^] [ответить]  
  • +4 +/
    > если вам нужно 30 виртуалок на разных тазиках то лучше использовать XEN,
    > а если надо >30 виртуалок + кластерные фичи + у вас
    > есть СХД блейды etc то альтернативы esx vmware просто нет

    А пацаны из амазона не знают советов "эксперта", и поэтому крутят на ксене самое большое облако в мире.

     
     
  • 3.43, Dim (??), 16:01, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> если вам нужно 30 виртуалок на разных тазиках то лучше использовать XEN,
    >> а если надо >30 виртуалок + кластерные фичи + у вас
    >> есть СХД блейды etc то альтернативы esx vmware просто нет
    > А пацаны из амазона не знают советов "эксперта", и поэтому крутят на
    > ксене самое большое облако в мире.

    ага. и еще куча провайдеров помимо амазона. причем на KVM все больше и больше

     
  • 2.50, все на xen (?), 20:26, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    посмотрите ganeti
    сложный прдукт но того стоит,
    например винда под ксеном работает лучше и быстрее.. (virtio надо тюненговать для нагруженных систем, а xen отдает все из коробки тем более паравиртуалные драва под винду лучше себя ведут)

    кластер ганети обеспечивает все что дает вмварь + куча разных интересных фиичь есть одно но... ввсяким любителям окошечного управления лучше не соваться... прдукт для тру админов имхо

    > если вам нужно 30 виртуалок на разных тазиках то лучше использовать XEN,
    > а если надо >30 виртуалок + кластерные фичи + у вас
    > есть СХД блейды etc то альтернативы esx vmware просто нет

     

  • 1.41, asdasd (?), 15:51, 28/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Парни мне лень спорить на этот счет
    вы лучше сами заюзайте esx в продакшен и сравните сами. ESX очень и очень юзабельно, самые вкусные фичи лично для меня это vmotion, Fault Tolerant в аналогах реализованы они не так приятсвенно как в vmware.
     
     
  • 2.42, Dim (??), 16:00, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Парни мне лень спорить на этот счет
    > вы лучше сами заюзайте esx в продакшен и сравните сами. ESX очень
    > и очень юзабельно, самые вкусные фичи лично для меня это vmotion,
    > Fault Tolerant в аналогах реализованы они не так приятсвенно как в
    > vmware.

    такой умный, и такой ленивый, ну надо же? я пользовал ESX и проблем более чем хватало.
    живая миграция есть во всех современных системах.
    FT - маркетинговая чушь, с такими ограничениями, что все равно ничего серьезного под этим не запустишь. кроме того, с теми же ограничениями, ее делали под xen в свое время, но бросили эти глупости, когда увидели что в продакшен эту фигню не запустить.

     
  • 2.44, haha (??), 16:06, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >вы лучше сами заюзайте esx в продакшен и сравните сами

    Заюзать в продакшене значит купить, ну не на одной же виртуалке гонять. А смысла покупать нет, так как тема тобой не раскрыта, удобства они индивидуальны, а реальных преимуществ в плане функциональности и масшатабируемости нет.

     
  • 2.45, haha (??), 16:10, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и как всегда "эксперта" можно определить по маркетинговым словечкам  vmotion™ вместо миграции.
     

  • 1.46, asdasd (?), 16:11, 28/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    "FT - маркетинговая чушь" ну не будьте вы таким упертым - шире на мир смотреть надо :)
    понятно что на высоконагруженной vm использовать ft не выгодно, а зачастую и невозможно, но для vm с небольшой нагрузкой и очень критичной к простою FT очень эффективна и проста.
    вы пишите у вас были нерешимые проблемы с esx от которых, как я понял, вы счастливо избавились в "открытых" решениях - можно более поподробнее эти моменты осветить?
     
     
  • 2.47, Dim (??), 16:23, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > "FT - маркетинговая чушь" ну не будьте вы таким упертым - шире
    > на мир смотреть надо :)

    и это я слышу от апологета вмвари, которые не только изо всех сил стараются запереть клиентов на своих решениях, чтоб они никогда не увидели ничего другого, но и запрещают публиковать бенчмарки и проблемы, под страхом решения лицензии, которая кстати стоит бешеных денег

    > понятно что на высоконагруженной vm использовать ft не выгодно, а зачастую и
    > невозможно, но для vm с небольшой нагрузкой и очень критичной к
    > простою FT очень эффективна и проста.

    ВМ как таковая никому не нужна. важен сервис который там бежит. и во первых сервис можно держать в кластере, а во вторых, достаточно важный сервис обычно и так защищен, и ФТ оказывается не нужен.

    > вы пишите у вас были нерешимые проблемы с esx от которых, как
    > я понял, вы счастливо избавились в "открытых" решениях - можно более
    > поподробнее эти моменты осветить?

    вы сначала осветите вашу позицию на тему "не хочу спорить"
    потом поясните как же вы все равно спорите, после этого - через "не хочу" получается?
    а потом покажите где я упоминал "нерешимые" проблемы? просто их было много, ничуть не меньше чем с альтернативными решениями, хотя казалось бы что за такие деньги, все должно быть идеально, не?

     

  • 1.48, asdasd (?), 16:41, 28/03/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    не надо ярлыки навешивать, я использовал и Hyper-V, сейчас использую XEN и vmware и если вы прочтете мой первый пост то увидите там мое собственное мнение сформированное на основе личного опыта и кстати свое мнение я никому не навязываю
    to Dim я вас спросил какие у вас были серъезные проблемы? а вы поступаете чисто по еврейски отвечаете вопросом на вопрос.
    to haha - попробую объяснить свой выбор
    при мощностях современных серверов мне уже глубоко пофигу показания бенчмарков и прочие прес-релизы заказных пиписькомеров а ля "мы круче" кто бы их не публиковал. Для меня выбор любой системы стал определяться в первую очередь простотой эксплуатации уровнем надежности и временем реакции техподержки, а также уровнем квалификации обслуживающего ее персонала (чем проще - тем меньше можно платить инженеграм саппорта) - ну что доходчиво объяснил?
     
     
  • 2.49, Dim (??), 16:48, 28/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > не надо ярлыки навешивать, я использовал и Hyper-V, сейчас использую XEN и
    > vmware и если вы прочтете мой первый пост то увидите там
    > мое собственное мнение сформированное на основе личного опыта и кстати свое
    > мнение я никому не навязываю

    по категоричности поста этого не скажешь.

    > to Dim я вас спросил какие у вас были серъезные проблемы? а
    > вы поступаете чисто по еврейски отвечаете вопросом на вопрос.

    даже не буду на эту чушь реагировать.

    > to haha - попробую объяснить свой выбор
    > при мощностях современных серверов мне уже глубоко пофигу показания бенчмарков и прочие
    > прес-релизы заказных пиписькомеров а ля "мы круче" кто бы их не
    > публиковал. Для меня выбор любой системы стал определяться в первую очередь
    > простотой эксплуатации уровнем надежности и временем реакции техподержки, а также уровнем
    > квалификации обслуживающего ее персонала (чем проще - тем меньше можно платить
    > инженеграм саппорта) - ну что доходчиво объяснил?

     
  • 2.51, Бублик (?), 10:23, 29/03/2011 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Э, как бы вам сказать. Дело в том, что "простота эксплуатации" это миф. Тем более в системах с таким горизонтом, как кластерные или облачные. Поэтому на уровне квалификации сэкономить за счёт некой "простоты эксплуатации" не выйдет. Это мой взгляд. На первые места, на практике, выходит адекватность и качество документирования сформированной системы и наличие в достаточном количестве методик обслуживания и, конечно же, наличие сообщества. Поэтому лучше вкладываться именно в квалификацию персонала, но не просто так, а ставя перед этим персоналом понятные и достижимые цели.
     
  • 2.54, haha (??), 11:34, 29/03/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >при мощностях современных серверов мне уже глубоко пофигу показания бенчмарков и прочие прес-релизы заказных пиписькомеров а ля "мы круче" кто бы их не публиковал.

    Несколькими постами выше было всё наоборот.

    >Для меня выбор любой системы стал определяться в первую очередь простотой эксплуатации уровнем надежности и временем реакции техподержки.

    И шо вы хотите этим сказать? Что поддержку на Xen или KVM купить нельзя? Так это чушь, можно купить с любым SLA. Что уровень надежности меньше? Так опять ведь чушь. Что эксплуатация проще, так нет же — это продукты одной категории сложности.

    >а также уровнем квалификации обслуживающего ее персонала (чем проще - тем меньше можно платить инженеграм саппорта)

    Во-первых нет никакой корреляции между простотой программного обеспечения и квалификацией персонала а уж тем более заработной платой этого персонала. Это разные вещи.  

    Во-вторых любая "простая" технология при масштабирование внезапно становится очень сложной, с кучей критических ньюансов, которые не видны на малом масштабе.

    В-третьих, абсолютно не понятно на каких основаниях виртуализацию можно отнести к простым технологиям.

    > - ну что доходчиво объяснил?

    Это было не объяснение это было какое-то оправдание.

     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру