The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Доступен третий релиз свободной cloud-платформы OpenStack

18.04.2011 20:10

Представлен третий релиз платформы OpenStack, выпущенный под кодовым именем "Cactus". Платформа нацелена на создание как публичных cloud-сервисов, подобных Amazon EC2, так и приватных (работающих на собственном оборудовании) cloud-окружений, полностью подконтрольных и работающих только для обеспечения нужд компании.

Изначально платформа OpenStack была разработана и открыта под лицензией Apache компанией Rackspace и космическим агентством NASA. Позднее к работе над проектом присоединилось около 50 компаний, среди которых Citrix, Dell, Cloud.com, Puppet Lab, AMD, Intel, rPath, Vyatta, EnterpriseDB, NTT. В отличие от платформы Eucalyptus, проект OpenStack не подконтролен отдельным компаниям и управляется независимым сообществом, без разделения на открытую community-версию и закрытую расширенную enterprise-редакцию. При этом OpenStack изначально лишен некоторых проблем с масштабируемостью, наблюдаемых в Eucalyptus. Например, система способна обслуживать инфраструктуру виртуальных серверов больших хостинг-компаний, подобных Rackspace (100 тыс. виртуальных серверов клиентов).

В настоящий момент в рамках проекта развиваются три продукта:

  • Распределенное, отказоустойчивое и высоконадежное хранилище объектов OpenStack Object Storage (Swift). Хранимые объекты сохраняются одновременно на несколько узлов кластера в дата центре, при этом обеспечивается автоматический контроль целостности и репликация при отключении/добавлении узлов. Хранилище масштабируется горизонтально, т.е. для увеличения размера достаточно просто добавить новые узлы, конфигурация которых производится автоматически. При выходе узла из строя, его содержимое воспроизводится на других узлах сети для обеспечения должной избыточности. Дублирование информации позволяет использовать для формирования кластера типичные недорогие серверы, не заботясь о надежности каждого из них в отдельности.
  • Инструментарий OpenStack Compute (Nova) , позволяющий автоматически создавать и управлять работой больших групп VPS-серверов. Система основана на технологии NASA Nebula и наработках, применяемых для оказания услуги Rackspace Cloud Servers. OpenStack Compute написан на языке Python с использованием фреймворков Tornado и Twisted, для обмена сообщениями используется протокол AMQP, для хранения данных задействована БД Redis.
  • Реестр образов виртуальных машин OpenStack Image Service (Glance), позволяющий регистрировать новые образы виртуальных машин и обеспечивать их доставку на нужные узлы перед выполнением. Обеспечивает функционирование хранилища образов виртуальных машин, представленных в широком спектре форматов: Raw, AMI, VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) и OVF (VMWare). Для унификации операций по получению информации, добавлению и доставке образов виртуальных машин используется специальный Glance REST-ful API.

Из новшеств, представленных в релизе Cactus, можно отметить:

  • OpenStack Compute (Nova)
    • Обеспечена поддержка двух дополнительных технологий виртуализации: LXC-контейнеров и VMWare/vSphere ESX / ESXi 4.1, Update 1. Из ранее реализованных систем виртуализации можно отметить: KVM, QEMU, UML, Xen, Microsoft Hyper-V и Citrix XenServer;
    • Поддержка live-миграции для систем виртуализации на базе KVM. Позволяет без остановки переносить виртуальные окружения с одного физического сервера на другой;
    • Улучшена поддержка XenServer: подстановка параметров сети и файлов, поддержка IPv6, возможность изменять размер раздела, функции восстановления, управление качеством сервиса (QoS);
    • Представлена стабильная версия OpenStack Compute API 1.0 и экспериментальная версия API 1.1. В API добавлена поддержка управления набором аккаунтов и административных операций, таких как создание пользователей. В версии 1.1 добавлена поддержка подключения дополнений, позволяющих разработчикам самостоятельно расширять возможности локальных OpenStack установок;
    • Поддержка запуска виртуальных окружений в формате VHD, в котором в едином унифицированном виде находится ядро и данные пользователя;
    • Расширены возможности бэкенда по управлению дисковыми разделами: добавлена поддержка изменения размера томов для устройств на базе HP SAN и Solaris iSCSI;
    • Поддержка разбиения кластера серверов на несколько регионов, что позволяет администраторам управлять серверами к кластере и организовывать внутри кластера зоны сбоя и зоны доступности.
  • OpenStack Object Storage (Swift)
    • Возможность прямой отдачи статического контента сайтов из Swift хранилища. Поддерживается автоматическое формирования index.html для вывода списка содержимого директорий;
    • Увеличена оперативность выявления ошибок для часто обрабатываемых файлов, Swift теперь выполняет сверку контрольной суммы в процессе выполнения GET-запросов.
    • Увеличена производительность различных типов запросов, за счет переработки Swift Proxy Server;
    • Во избежание замедления выполнения типовых операций в процессе чистки удаленных элементов, в Swift улучшена система индексирования;
    • Поддержка расширенной системы аутентификации SWauth;
    • Наличие средств для накопления и обработки данных, которые могут быть использованы для интеграции с биллинговыми системами сервис-провайдеров или для расчета внутренних платежей.
  • OpenStack Image Service (Glance)
    • Новая утилита glance для управления из командной строки, позволяющая организовать прямой доступ к API сервиса Glance;
    • Поддержка работы с различными форматами образов виртуальных машин, путем определения наборов мета-данных disk_format и container_format;
    • Поддержка проверки загружаемых образов по переданной клиентом контрольной сумме, что позволяет гарантировать целостность загруженного образа.


  1. Главная ссылка к новости (http://www.openstack.org/blog/...)
  2. OpenNews: Компания VMware анонсировала открытую PaaS-платформу Cloud Foundry
  3. OpenNews: Новая версия платформы CloudStack 2.2
  4. OpenNews: Анонсирован выход Xen Cloud Platform 1.0
  5. OpenNews: Доступна новая версия свободной cloud-платформы OpenStack
  6. OpenNews: Rackspace и NASA представили открытый стек для обеспечения работы cloud-инфраструктуры
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/30282-OpenStack
Ключевые слова: OpenStack, cloud, virtual, cluster
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (34) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (-), 21:50, 18/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Какой раз пишу, дайте дистрибутив что бы это было из коробки.
     
     
  • 2.2, ананим (?), 22:11, 18/04/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    какой раз уже можно было бы понять, что тогда всякие цайтрикс ксен сервер хрен бы кто покупал.
    засучивай рукава или раскошеливайся. и это кстати правильно.
     
  • 2.3, Аноним (-), 22:28, 18/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Ждите Нексенту 4 :-)
     

  • 1.4, Аноним (-), 22:52, 18/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Кто-нибудь использует данное решение для реализации хостинга?
     
     
  • 2.5, Гость (?), 23:29, 18/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Данное решение является классическим примером сферического коня в вакууме. Его никто не использует. Более того, там просто нечего использовать - одни роадмапы и блупринты. Прочитайте спокойно и вдумчиво релиз-фичи - там ничего своего, все возможности стандартных технологий, которые типа "лежат в основе".
     
     
  • 3.7, Donitoza (?), 00:25, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Лучше "вдумчиво" пройдитесь по сайту сабжа. Есть исходники, видео с примером работы и информация как поставить на "реальные" дистрибутивы (http://wiki.openstack.org/InstallInstructions).

    ИМХО на "коня в вакууме" не похоже.

     
  • 3.25, Бублик (?), 14:35, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Его никто не  использует.

    Как минимум моя фирма использует.

     
     
  • 4.33, kremlinmax (ok), 17:42, 25/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> Его никто не  использует.
    > Как минимум моя фирма использует.

    Меня при запуске этого продукта на втором релизе подряд не отпускает стойкое чувство того, что разработчики осознанно дают неисправный кое-как документированный продукт. Не иначе, РэкСпэйс в этом очень заинтересован.
    Бублик, не найдется ли у Вас пару минут обсудить настройку и запуск Nova?
    Буду очень признателен!
    prishchepo
    gmail
    com

     

  • 1.6, Аноним (-), 00:07, 19/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    oracle vm смотриться получше чем эти все решения, так как в последних управление всего этого адаптировали для дебилов, который дай готовое решение и юзай из коробки, никакого контроля и гибкости и документация как всегда хренова, пару бестолковых страниц и все.
     
     
  • 2.8, Greg (??), 00:30, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А стоимость оракла ?
     
     
  • 3.9, Аноним (-), 00:57, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    https://shop.oracle.com/pls/ostore/f?p=700:2:8304523502389942::NO:RP,2:PROD_HIER_ID:4510278280861805728469&tz=00:00

    без поддержки - бесплатно, дык Linux же, утилиты поставляемой ей по лицензии  GPL

     

  • 1.10, luserz (?), 06:46, 19/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    виртуалки кластеризуются на несколько хостов?
     
     
  • 2.11, Nerian (?), 08:46, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    А есть хоть одна технология которая это позволяет на данный момент? :) С 2004 года пытаюсь найти и понимаю что таких нет до сих пор )
     
     
  • 3.14, Бублик (?), 10:01, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    drbd + heartbeat
     
     
  • 4.20, Nerian (?), 12:47, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > drbd + heartbeat

    Да я не про это ) Я про то что к примеру есть два сервера. И к примеру виртуальная машина кластеризация таким образом что использует одновременно ресурсы обоих серверов )
    К примеру есть 10 серверов, и мы создаём на них машину мошностью в 5 серверов.

     
     
  • 5.23, Бублик (?), 13:19, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    >> drbd + heartbeat
    > Да я не про это ) Я про то что к примеру
    > есть два сервера. И к примеру виртуальная машина кластеризация таким образом
    > что использует одновременно ресурсы обоих серверов )
    > К примеру есть 10 серверов, и мы создаём на них машину мошностью
    > в 5 серверов.

    По сути вы о работе поверх гетерогенной ф/с. Но и виртуализуемая среда тогда должна поддерживать динамическое расширение ресурсов. Иначе, не вижу в подобной затее никакого смысла.
    Из продуктов. У Оракла есть что-то подобное :) Свободных же действующих реализаций гетерогенных сред я не видел.

     
  • 5.29, Анон (?), 10:33, 20/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    В своё время был MOSIX и openMOSIX. Последний загнулся, первый за денюжку. Мне во всём этом интересней когда pohmelfs допилят.
     
     
  • 6.31, Бублик (?), 14:44, 20/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    У Мосикса, на практике, много ограничений. Хотя в качестве университетской платформы он, может, и сгодится. У него есть аналоги. Но они тоже вряд ли годны для чего-либо, кроме организации дешёвых вычислительных мощностей под общую задачу.
     
  • 5.32, Undir (?), 15:55, 21/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Может это?

    http://blog.trinitygroup.ru/2010/05/scalemp.html

     
  • 5.34, ten_sar (?), 23:05, 04/05/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Был такой проект openmosix назывался только он приказал долго жить.
    Есть его потомок openssi, но он тоже скорее мертв чем жив.
     
  • 3.15, Бублик (?), 10:03, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > А есть хоть одна технология которая это позволяет на данный момент? :)
    > С 2004 года пытаюсь найти и понимаю что таких нет до
    > сих пор )

    Или вы об установке поверх гетерогенной ф/с.

     
  • 3.16, ананим (?), 11:23, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    http://www.opennet.ru/base/net/xen_cluster_howto.txt.html
     
     
  • 4.17, luserz (?), 12:00, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    миграция есть
    кластера не вижу
    слеп?
     
     
  • 5.24, ананим (?), 14:15, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • –1 +/
    это всё что есть.
    или вы желаете одну винду сразу на 20 узлах запустить? :D

    зыж
    когда задаёте вопросы, то уточняйте что хотите - создать кластер из вирт машин? да.
    создать кластер из хостов, где можно запустить одну вирт машину? нет. и вряд ли будет.
    ибо бесполезная затея - производительность как у кластера из виртуалок, зато синий экран сразу на все узлы. :D

     
     
  • 6.26, ананим (?), 14:42, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    ззыж
    >ибо бесполезная затея - производительность как у кластера из виртуалок,

    в лучшем (очень лучшем) случае.

    если интересно, то есть конечно разработки - Удаленный прямой доступ к памяти - http://en.wikipedia.org/wiki/RDMA ; Virtual Interface Architecture - http://en.wikipedia.org/wiki/Virtual_Interface_Architecture ; http://en.wikipedia.org/wiki/InfiniBand ;...
    но вс они рассчитаны для специально разработанных приложений.
    и к примеру оракл эксадата этим уже пользуется - http://en.wikipedia.org/wiki/Exadata
    но чтобы пускать так обычные универсальные ОСи, ворды, 1Сы, пасьянс косынка - даже не фантастика. идиотизм.

     
  • 4.21, Nerian (?), 12:47, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > http://www.opennet.ru/base/net/xen_cluster_howto.txt.html

    Выше ответил какую кластеризацию я имел ввиду )

     
     
  • 5.22, luserz (?), 13:00, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    так вопрос то был в кластеризации виртуалки.
     
     
  • 6.27, ананим (?), 14:46, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    решайте этот вопрос средствами кластеризации самой ОС, которую запускаете в виртуалке.
    к примеру, создали на 5 физических серверах 20 виртуалок, в них оракловый РАК о 20 нодах. :D
     
  • 2.13, Аноним (-), 08:48, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще-то это Ентерпрайз так, что здесь в основном всякие SAN, NFS, iSCSI и подобная Ентерпрайз....
     

  • 1.12, Аноним (-), 08:47, 19/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Коллеги,

    удостойтесь посмотреть документацию на их сайте, там есть всё: и руководства для системных администраторов и для разработчиков. В них описывается всё, начиная от установки и настройки до запуска.

     
     
  • 2.19, Бублик (?), 12:10, 19/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    > Коллеги,
    > удостойтесь посмотреть документацию на их сайте, там есть всё: и руководства для
    > системных администраторов и для разработчиков. В них описывается всё, начиная от
    > установки и настройки до запуска.

    Да. Кстати, у Опенстэка хорошая документация. И вообще, решение очень интересное.

     

  • 1.28, Анон (?), 08:39, 20/04/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Стало интересно - а у таких систем интерфейс управления тоже на виртуалке в самом облаке? Или является, так сказать, слабым местом и неохвачен виртуализацией?
     
     
  • 2.30, Grygoriy (?), 13:22, 20/04/2011 [^] [^^] [^^^] [ответить]  
  • +/
    Можно в виртуалке.
     

  • 1.36, Anonim (??), 23:58, 29/03/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Есть такое решение Proxmox VE (http://proxmox.com/products/proxmox-ve)

    Ключевые возможности
        Простое управление через веб-интерфейс;
        Мониторинг нагрузки в реальном времени;
        Библиотека установочных образов (в локальном или удаленном хранилище);
        Подключение к «физической» консоли гостевых систем непосредственно из браузера (по VNC);
        Объединение серверов в кластер с возможностью живой миграции виртуальных машин (без остановки гостевой системы);
        Быстрое развертывание гостевых систем из шаблонов (доступно только для OpenVZ);
        Автоматическое резервное копирование виртуальных машин.

    а в версиях 2.x общая управляющая консоль не привязана к одной машине и для тех кому нужен образ и чтоб с него все залетело - это оно, только все винты на устанавливаемой машине форматирует полностью и без вопросов!!!!! единственное что в версиях 1.x придется делать из консоли - связывать кластер, все остальное через web-интерфейс.
    Как итог вышесказанного - на данной системе виртуалки крутятся с версии 1.6 и никаких проблем не было.

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру