The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Компания Red Hat преобразовала проект Gluster в сообщество разработки открытых систем хранения

06.05.2013 20:27

Компания Red Hat, которая приобрела в 2011 году распределённую кластерную файловую систему GlusterFS, объявила о трансформации проекта Gluster в новое сообщество для разработки свободных проектов, связанных с системами хранения данных. Из жёстко контролируемого проекта, развиваемого в соответствии с принципом Open Core (открытая базовая часть и закрытый продукт с расширенными возможностями), Gluster теперь следует рассматривать как экосистему открытого ПО с быстро растущим числом проектов и участников.

Для обеспечения работы нового сообщества открыт ресурс Gluster Community Forge, предоставляющий основанную на Gitorious среду совместной разработки, где участники могут как развивать имеющиеся, так и добавлять новые проекты. Несмотря на то, что сообщество сфокусировано в основном на развитии систем, связанных с GlusterFS, не воспрещается размещение и любых других проектов, имеющих отношение к системам хранения. Коммерческий продукт на базе технологий GlusterFS по прежнему будет поставляться под именем Red Hat Storage Server.

На данный момент, кроме флагманского проекта GlusterFS Core, в Gluster Comunity Forge будут развиваться такие проекты, как:

  • pmux - написанная на языке Ruby система MapReduce, применяющая конвейерные обработки для распределенных вычислений на кластере GlusterFS и способная обрабатывать большие объемы данных, хранящихся в файлах;
  • gflocator - демон для предоставления ответов на запросы о расположению файлов на узлах GlusterFS;
  • HDFS plugin - проект, позволяющий использовать GlusterFS в Hadoop вместо или в дополнение к штатной HDFS;
  • Интеграция Samba и GlusterFS - цель проекта - совместное использование томов GlusterFS клиентами SMB;
  • Dispersed Volume - система с задаваемым уровнем избыточности, похожая на RAID5/6, но для распределённой GlusterFS.


  1. Главная ссылка к новости (http://www.redhat.com/about/ne...)
  2. OpenNews: Релиз распределенной файловой системы GlusterFS 3.3
  3. OpenNews: Для развития GlusterFS сформирован независимый управляющий совет
  4. OpenNews: Red Hat покупает компанию-разработчика распределенной файловой системы GlusterFS
  5. OpenNews: Компания Red Hat представила решения для создания NAS-серверов на базе GlusterFS
Автор новости: Клыкастый
Тип: К сведению
Короткая ссылка: https://opennet.ru/36865-glusterfs
Ключевые слова: glusterfs, redhat
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (133) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (-), 21:19, 06/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • –8 +/
    если упоминули Ruby то сразу понятно что не нужно, потому что тормоз
     
     
  • 2.2, Аноним (-), 21:32, 06/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Коммерческий продукт на базе технологий GlusterFS

    А люди за этот тормоз деньги еще платят, да?

     
  • 2.4, Аноним (-), 22:02, 06/05/2013 [^] [^^] [^^^] [ответить]  
  • –4 +/
    > если упоминули Ruby то сразу понятно что не нужно, потому что тормоз

    Так сейчас, когда код открыт, может кто то решится выпилить руби и заменить его на что то более быстрое.  Хотя раз шапка не сделала этого ранее то им проект скорее всего вообще неинтересен

     
     
  • 3.5, Аноним (-), 23:07, 06/05/2013 [^] [^^] [^^^] [ответить]  
  • +4 +/
    > Хотя раз шапка не сделала этого ранее то им проект скорее всего вообще неинтересен

    Впервые вижу таких добрых бизнесменов. Купили проект, который им заведомо неинтересен. Видимо, чтобы оказать благотворительную помощь предыдущим владельцам.

     
     
  • 4.9, Deffic (?), 23:48, 06/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >> Хотя раз шапка не сделала этого ранее то им проект скорее всего вообще неинтересен
    > Впервые вижу таких добрых бизнесменов. Купили проект, который им заведомо неинтересен.
    > Видимо, чтобы оказать благотворительную помощь предыдущим владельцам.

    С конкуренциию подавляют скупкой конкурентов или патентов.

     
     
  • 5.15, Аноним (-), 01:26, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > С конкуренциию подавляют скупкой конкурентов или патентов.

    Замечательная версия. У нее всего один недостаток - непонятно, с каким продуктом редхата конкурировал gluster. С Linux?

    К тому же патентов там никаких не было, а СПО покупать бессмысленно - его всегда можно форкнуть.

     
     
  • 6.28, linux must _RIP_ (?), 08:36, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –4 +/
    gpfs ? или как там называется кластер от redhat с жестко зашитым ограничением в 256 узлов..
     
     
  • 7.39, SkyRE (ok), 11:29, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    GPFS - это у IBM. (IBM General Parallel File System)
    А у RedHat это GFS2.
     
     
  • 8.49, Аноним (-), 13:09, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Вот только GFS2 - ни разу не конкурент для gluster Потому что GFS - это только ... текст свёрнут, показать
     
     
  • 9.56, SkyRE (ok), 14:30, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    В GPFS тоже нет избыточности Но и GPFS и GFS2 можно построить на RAID-ах ... текст свёрнут, показать
     
     
  • 10.72, Аноним (-), 18:24, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    А вот в Gluster есть избыточность, при чем _сетевая_ Это вам не рейд ... текст свёрнут, показать
     
  • 10.82, Аноним (-), 19:12, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще-то, в GPFS есть прозрачная синхронная репликация между нодами как данных,... текст свёрнут, показать
     
  • 10.84, Михрютка (ok), 20:19, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    ну здрасте, а нейтив рейд ... текст свёрнут, показать
     
     
  • 11.117, SkyRE (ok), 13:28, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Я строил кластер на 5-х рейдах без всякой репликации, т к места много нужно был... текст свёрнут, показать
     
  • 6.47, Алексей (??), 12:43, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    там было другое (здесь же в новостях с год назад) - патентный тролль подал в суд на редхат, в ответ ему указали на наличие в его проприетарном поделии gpl-кода, после чего судиться стало не актуально. скорее всего и приобретали проект, чтобы спровоцировать наезд, ну и забрать все деньги и женщин обидчика :)
     
     
  • 7.52, Аноним (-), 13:15, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > там было другое (здесь же в новостях с год назад) - патентный
    > тролль подал в суд на редхат, в ответ ему указали на
    > наличие в его проприетарном поделии gpl-кода, после чего судиться стало не
    > актуально. скорее всего и приобретали проект, чтобы спровоцировать наезд, ну и
    > забрать все деньги и женщин обидчика :)

    Годы шли, а любители запихнуть код gluster в проприетарный продукт так и не находились...

     
  • 4.45, Аноним (-), 12:25, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > Впервые вижу таких добрых бизнесменов. Купили проект, который им заведомо неинтересен.
    > Видимо, чтобы оказать благотворительную помощь предыдущим владельцам.

    Шапка купила, но это еще не значит что оно им действительно нужно, в конце концов, вспомните про Oracle и посмотрите теперь на MySQL. Возможно до покупки были какие-то миражи по поводу того что на этом можно сделать profit но после покупки, стало понятно что нельзя. Отдали в сообщество, возможно у людей из сообщества появится какие-то идеи, которые сделают проект более интересным и востребованным.

     
     
  • 5.74, Аноним (-), 18:29, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Шапка и Oracle - это как небо и земля. Достаточно сравнить модели развития Linux и MySQL.
     
     
  • 6.91, linux must _RIP_ (?), 23:54, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Шапка и Oracle - это как небо и земля. Достаточно сравнить модели
    > развития Linux и MySQL.

    да да, достаточно сравнить. MySQL закрыл разве что тестовый набор и то до того как выпустят заплатку.
    А шапка сделала закрытый репозиторий под свое ядро, занимается обфускацией патчей на ядро что бы осложнить другим анализ (да да - нагадить ksplice который продался не ей, а oracle), но попутно с ksplice нагадила еще и остальным открытым проектам. Но это не мешает евангелистам redhat лизать ей все что можно.

     
     
  • 7.92, AlexAT (ok), 23:55, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Про ksplice можно забывать. Если до оракла оно худо-бедно умело всё, то после оракла в принципе ни на что кроме OEL его вкручивать уже не рискнет почти никто.
     
     
  • 8.107, linux must _RIP_ (?), 10:07, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    скажите спасибо redhat и его защите бизнеса Показали пример как это можно делат... текст свёрнут, показать
     
  • 2.6, Аноним (-), 23:08, 06/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > если упоминули Ruby то сразу понятно что не нужно, потому что тормоз

    А то, что она через fuse работает, никого не смущает?

     
  • 2.23, Аноним (-), 05:41, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +3 +/
    > если упоминули Ruby то сразу понятно что не нужно, потому что тормоз

    Если бы ты потрудился открыть документацию, то ты бы узнал, что сами вычисления производятся не ruby-кодом, а внешними mapper-ами и reducer-ами, задаваемыми пользователем и вызываемыми pmux-ом. Сам pmux занимается только раскидыванием задач по нодам и вводом-выводом, а для этого скорость исполнения кода не важна.

     
  • 2.85, Aquarius (ok), 20:53, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    по RoR ruby не судят
     

  • 1.7, Alrond (ok), 23:10, 06/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Этот гластер - поделие, тьфу на него еще раз, мучался с ним два года. Сейчас на MooseFS переходим.
     
     
  • 2.44, t28 (?), 12:21, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Этот гластер - пoдeлue, тьфy на него еще раз, мuчaлcя с ним два года.

    Да, yжac. Пробовали Ceph, но у него к CPU больше требования.

    > Сейчас на MooseFS переходим.

    Спасибо за наводку, посмотрим...

     

  • 1.8, midori (ok), 23:42, 06/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    то, что вы мучал'ись - не говорит о плохой реализация glusterFS (Moose тоже не совершенство)
    p.s. еще и два года)
     
  • 1.10, Sw00p aka Jerom (?), 00:03, 07/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    а в роли какой фс его использовать ? может нфс ? да нет стандартный нфс куда стабильнее, может шаред фс ? - да нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж люстру, а если ещё и денег достаточно можно и gpfs

    так что в полне разумный вопрос - где его использовать ?  

     
     
  • 2.11, ананис (?), 00:20, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    вот и красношляпники тоже посмотрели, почесали репу на тему "где его использовать ?" и решили что подкормив сообщество очередным полунужным хламом, они может получат хоть какие-то плюшки и развитие, да и карму плюсанут неплохо.
     
     
  • 3.12, Andrey Mitrofanov (?), 00:25, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > вот и красношляпники тоже посмотрели, почесали репу на тему "где его использовать
    > ?" и решили что

    узнают об этом из следующего релиза федоры. ну, на крайний, дебиана.

     
  • 3.14, VoDA (ok), 00:28, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > вот и красношляпники тоже посмотрели, почесали репу на тему "где его использовать
    > ?" и решили что подкормив сообщество очередным полунужным хламом, они может
    > получат хоть какие-то плюшки и развитие, да и карму плюсанут неплохо.

    Аналогичных систем всего 2-3. Люстра, сабж и HDFS. Другие или не активно развиваются или проприетарь или еще чего.

    И да, конкуренция идет на пользу потребителям и сообществу.

    Xen VS KVM
    Lustre VS Gluster
    Tomcat VS JBoss (шутка смешного юмора ;) )

     
     
  • 4.20, anonymous (??), 05:27, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Аналогичных систем всего 2-3. Люстра, сабж и HDFS. Другие или не активно развиваются или проприетарь или еще чего.

    POHMELFS :)

     
     
  • 5.32, linux must _RIP_ (?), 08:50, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> Аналогичных систем всего 2-3. Люстра, сабж и HDFS. Другие или не активно развиваются или проприетарь или еще чего.
    > POHMELFS :)

    это которая позволяет писать в 1 файл только одному клиенту? которая принципиально O_APPEND не обрабатывает правильно? как там у нее с flock для поддержки samba и MPI ?

     
  • 4.27, anonymous (??), 08:23, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ceph. Которая кстати в ядро уже включена.
     
  • 4.29, linux must _RIP_ (?), 08:37, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> вот и красношляпники тоже посмотрели, почесали репу на тему "где его использовать
    >> ?" и решили что подкормив сообщество очередным полунужным хламом, они может
    >> получат хоть какие-то плюшки и развитие, да и карму плюсанут неплохо.
    > Аналогичных систем всего 2-3. Люстра, сабж и HDFS. Другие или не активно
    > развиваются или проприетарь или еще чего.

    это не конкурент люстре :-) совсем совсем другие требования..

     
  • 4.128, Sw00p aka Jerom (?), 18:52, 12/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Lustre VS Gluster

    небо и земля не стоит сравнивать

     
     
  • 5.131, AlexAT (ok), 07:14, 13/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > Lustre VS Gluster
    > небо и земля не стоит сравнивать

    И по общей сложности поддержки - тоже.

     
  • 3.17, Аноним (-), 01:30, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > вот и красношляпники тоже посмотрели, почесали репу на тему "где его использовать
    > ?" и решили что подкормив сообщество очередным полунужным хламом, они может
    > получат хоть какие-то плюшки и развитие, да и карму плюсанут неплохо.

    Аналогичная история произошла лет 20 назад - тогда редхат никак не мог придумать, что делать с ненужным пoделием одного финского студента, и решил слить его сообществу. До сих пор плюшки гребут.

     
     
  • 4.25, Andrey Mitrofanov (?), 07:26, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > Аналогичная история произошла лет 20 назад - тогда редхат никак не мог
    > придумать, что делать с ненужным пoделием одного финского студента, и решил
    > слить его сообществу. До сих пор плюшки гребут.

    Про 20 лет почти угадал.

    """Компания начала свою работу в 1993 году, [...] В 2003 году Red Hat сменила политику выпуска дистрибутивов, отказавшись от выпуска коробочных версий Red Hat Linux (последняя коробочная версия Red Hat Linux 9) и превратив внутренний процесс разработки Red Hat Linux в открытый проект Fedora [...]

     
     
  • 5.33, linux must _RIP_ (?), 08:51, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –5 +/
    >> Аналогичная история произошла лет 20 назад - тогда редхат никак не мог
    >> придумать, что делать с ненужным пoделием одного финского студента, и решил
    >> слить его сообществу. До сих пор плюшки гребут.
    > Про 20 лет почти угадал.
    > """Компания начала свою работу в 1993 году, [...] В 2003 году Red
    > Hat сменила политику выпуска дистрибутивов, отказавшись от выпуска коробочных версий Red
    > Hat Linux (последняя коробочная версия Red Hat Linux 9) и превратив
    > внутренний процесс разработки Red Hat Linux в открытый проект Fedora [...]

    вот вот :-) в 2003 году - redhat закрыла итоговый результат и стала продавать его. А сообществу выпихнула недоделки.

     
     
  • 6.35, Аноним (-), 09:30, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Т.е. до 2003 года они ничего не продавали и жили на средства спонсоров?
     
     
  • 7.41, linux must _RIP_ (?), 11:36, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –6 +/
    если посмотреть на капитализацию и доходы RedHat - она резко пошла в гору - когда они закрыли бинарные пакеты и вообще все связаное с RHEL - "подарив" сообществу Fedora.
     
     
  • 8.46, pkdr (?), 12:28, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    И что именно всё Вам название centos жмёт Ибо от RHEL он названием и копирайто... текст свёрнут, показать
     
     
  • 9.48, linux must _RIP_ (?), 13:07, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –6 +/
    О да, а закрытые для постороннего репозитории RHEL тоже не существуют Или обнов... текст свёрнут, показать
     
     
  • 10.51, Аноним (-), 13:13, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +7 +/
    Знатное пригорание седалища у ораклышей Оно того стоило, определенно ... текст свёрнут, показать
     
     
  • 11.58, linux must _RIP_ (?), 16:09, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –4 +/
    если вы не заметили у Oracle - свое ядро, а ядро redhat они все равно без ограни... текст свёрнут, показать
     
     
  • 12.68, Аноним (-), 18:14, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Тогда почему именно у ораклят так пригорает анус ... текст свёрнут, показать
     
     
  • 13.71, Аноним (-), 18:22, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Наверное, все дело в том, что именно оракл пытается свое чудо-инновационное тырп... текст свёрнут, показать
     
     
  • 14.78, linux must _RIP_ (?), 19:06, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    наверно не в курсе - но ядро у них свое полностью Стоило бы учить матчасть, реб... текст свёрнут, показать
     
  • 13.79, linux must _RIP_ (?), 19:06, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    видимо потому что по себе судишь ... текст свёрнут, показать
     
  • 11.61, linux must _RIP_ (?), 16:14, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –3 +/
    к слову - это была такая защита их бизнеса в чем они сознавались - Red Hat repo... большой текст свёрнут, показать
     
     
  • 12.69, Аноним (-), 18:17, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Так-так GPL и LKML - это уже синонимы Респект им и уважуха Пусть эффективные ... текст свёрнут, показать
     
     
  • 13.77, linux must _RIP_ (?), 19:05, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    красиво передернул возьми пирожек - LKML был приведен как пример каким был исхо... большой текст свёрнут, показать
     
  • 10.101, AlexAT (ok), 07:28, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Поставить пакет из CentOS в систему с RHEL это прекрасно То, что они бинарно... текст свёрнут, показать
     
     
  • 11.108, linux must _RIP_ (?), 10:08, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    пошли отмазки - то есть нельзя вот прям так взять пакет который создан был для... большой текст свёрнут, показать
     
     
  • 12.109, AlexAT (ok), 10:26, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Пакет, который создан был для RHEL , и пакет из RHEL - разница есть Всё, что... текст свёрнут, показать
     
     
  • 13.111, linux must _RIP_ (?), 10:36, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Я пел о том что CentOS нефига не совместим с RedHat - в первую очередь по тому... большой текст свёрнут, показать
     
     
  • 14.120, AlexAT (ok), 15:55, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    С какого бы перепугу он не был совместим Весь софт под редхат, модули ядра и пр... текст свёрнут, показать
     
  • 12.112, profalex (?), 10:43, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это штатная функция ядра, вайн там сбоку Совсем путаете ... текст свёрнут, показать
     
     
  • 13.113, linux must _RIP_ (?), 11:32, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    а я и не говорю что это не штатная функция ядра - я говорю что в составе wine бы... текст свёрнут, показать
     
     
  • 14.124, Псевдоним (ok), 18:45, 09/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Да не было никакого специального модуля Просто настройками ядра задавалось, что... текст свёрнут, показать
     
  • 6.50, Аноним (-), 13:11, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > вот вот :-) в 2003 году - redhat закрыла итоговый результат

    Ваганыч, залогинься.

     
     
  • 7.62, linux must _RIP_ (?), 16:18, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Подлизывай дальше шапке А она пусть продолжает дальше гадить другим открытым пр... большой текст свёрнут, показать
     
     
  • 8.67, Аноним (-), 18:13, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Напомни-ка, что там с barn door применительно к MySQL ... текст свёрнут, показать
     
     
  • 9.75, linux must _RIP_ (?), 19:01, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    это такой способ съезжать с темы но вот продолжим обсуждение поведения redhat -... текст свёрнут, показать
     
  • 8.73, Аноним (-), 18:27, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Я их люблю не за бесплатные лицензии, а токмо за то, что они твой сpаный оракл щ... текст свёрнут, показать
     
     
  • 9.76, linux must _RIP_ (?), 19:02, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    смешной ты - оракл не мой, но лично он мне проблем не доставлял - в отличии от... текст свёрнут, показать
     
  • 6.97, Led (ok), 04:39, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > вот вот :-) в 2003 году - redhat закрыла итоговый результат и
    > стала продавать его. А сообществу выпихнула недоделки.

    Так ты продукт redhat для "сообщества"? Да, дествительно, как-то "незавершённо" выглядишь :(

     
  • 3.34, Клыкастый (ok), 09:06, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    плюсануть карму за NNN бабла... сам придумал, или подсказал кто?
     
  • 2.13, VoDA (ok), 00:25, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    так оно уровня люстры. +/- где то рядом.

    конечно с ocfs2 не сравнимо - для этого у них gfs2.

     
     
  • 3.30, linux must _RIP_ (?), 08:39, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > так оно уровня люстры. +/- где то рядом.

    уровня люстры? хм.. вы скажите - оно как с RDMA? как оно на скоростях 4Gb/s по сети?

     
     
  • 4.54, etw (ok), 13:23, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    К слову, поддержка RDMA у glusterfs есть.
     
     
  • 5.59, linux must _RIP_ (?), 16:09, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > К слову, поддержка RDMA у glusterfs есть.

    в fuse ? ;-)

     
     
  • 6.64, Аноним (-), 17:23, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    >> К слову, поддержка RDMA у glusterfs есть.
    > в fuse ? ;-)

    man ibverbs

     
     
  • 7.66, linux must _RIP_ (?), 18:08, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    ibverbs в userland? хотя да - что-то пробывали, и даже новый тип сокетов для этого придумали..
     
     
  • 8.83, Аноним (-), 19:23, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    В общем-то, ibverbs - это всего лишь API, причем в линуксе раскручивающееся напр... текст свёрнут, показать
     
     
  • 9.86, linux must _RIP_ (?), 23:47, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    да нет не спутал config RDS tristate The RDS Protocol EXPERIMENTAL... текст свёрнут, показать
     
  • 6.65, Аноним (-), 17:26, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >> К слову, поддержка RDMA у glusterfs есть.
    > в fuse ? ;-)

    К тому же, fuse - это интерфейс для взаимодействия с VFS (к слову, не единственный, есть также поддержка протокола NFS). Передачей же данных между нодами занимаются другие части кода.

     
     
  • 7.87, linux must _RIP_ (?), 23:49, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >>> К слову, поддержка RDMA у glusterfs есть.
    >> в fuse ? ;-)
    > К тому же, fuse - это интерфейс для взаимодействия с VFS (к
    > слову, не единственный, есть также поддержка протокола NFS). Передачей же данных
    > между нодами занимаются другие части кода.

    к слову fuse не только отвечает за vfs (aka md операции) но интерфейс взаимодействия с MM и передача данных. Которая со слов прозвучавших на Storage Summit - реализована из рук вон плохо, и минимальными телодвижениями можно получить 2-3x прирост скорости.

     
     
  • 8.88, AlexAT (ok), 23:51, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    GlusterFS упирается в round-trip, FUSE там не помеха Тащить в пространство ядра... текст свёрнут, показать
     
     
  • 9.102, linux must _RIP_ (?), 09:50, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    но люстра и IBM это же сделали причем в обоих случаях красиво вынеся сетевой... текст свёрнут, показать
     
  • 2.16, Аноним (-), 01:27, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > а в роли какой фс его использовать ? может нфс ? да
    > нет стандартный нфс куда стабильнее, может шаред фс ? - да
    > нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж
    > люстру, а если ещё и денег достаточно можно и gpfs

    Вы хотя бы примерно представляете себе структуру кластера для люстры? А для gpfs?

     
     
  • 3.129, Sw00p aka Jerom (?), 19:00, 12/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    >> а в роли какой фс его использовать ? может нфс ? да
    >> нет стандартный нфс куда стабильнее, может шаред фс ? - да
    >> нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж
    >> люстру, а если ещё и денег достаточно можно и gpfs
    > Вы хотя бы примерно представляете себе структуру кластера для люстры? А для
    > gpfs?

    вам пруфлинки нужны ? (http://paranoidchaos.livejournal.com/2111.html)
    да прекрасно обе фс в кластере поднимал.

    ps: жаль я весь процесс с люстрой не описал

     
  • 2.21, Аноним (-), 05:31, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > а в роли какой фс его использовать ? может нфс ? да
    > нет стандартный нфс куда стабильнее, может шаред фс ? - да
    > нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж
    > люстру, а если ещё и денег достаточно можно и gpfs
    > так что в полне разумный вопрос - где его использовать ?

    gpfs тоже не без греха. Пару лет назад ее пытались использовать в одном хостинге под хранилище виртуальных дисков, так его и так и сяк подкручивали, но в оно продакшене недолго продержалось из-за постоянных проблем с стабильностью под данным видом нагрузки.

     
     
  • 3.43, SkyRE (ok), 11:40, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    >> а в роли какой фс его использовать ? может нфс ? да
    >> нет стандартный нфс куда стабильнее, может шаред фс ? - да
    >> нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж
    >> люстру, а если ещё и денег достаточно можно и gpfs
    >> так что в полне разумный вопрос - где его использовать ?
    > gpfs тоже не без греха. Пару лет назад ее пытались использовать в
    > одном хостинге под хранилище виртуальных дисков, так его и так и
    > сяк подкручивали, но в оно продакшене недолго продержалось из-за постоянных проблем
    > с стабильностью под данным видом нагрузки.

    Начиная с версии 3.3 она уже гораздо получше будет. 3.3,3.4,3.5 развиваются и фиксятся в параллель, просто у каждой версии свой EOL. Вот например Скалакси её юзают, правда немного переделали под себя (на habrahabr их статьи), хотя по-моему это всё уже реализовали в 3.4 & 3.5.

     
     
  • 4.55, Аноним (-), 13:34, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще-то, я именно о скалакси и рассказывал (если мне не изменяет память, там использовался gpfs 3.3) :)
    GPFS в продакшене продержался очень недолго и почти сразу же был произведен переход на SRP+MDRAID+DM/LVM.
    На хабре об этом упоминалось в статье http://habrahabr.ru/company/oversun/blog/116137/
     
     
  • 5.57, SkyRE (ok), 14:52, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > Вообще-то, я именно о скалакси и рассказывал (если мне не изменяет память,
    > там использовался gpfs 3.3) :)
    > GPFS в продакшене продержался очень недолго и почти сразу же был произведен
    > переход на SRP+MDRAID+DM/LVM.
    > На хабре об этом упоминалось в статье http://habrahabr.ru/company/oversun/blog/116137/

    Да, и чем потом сказка кончилась - http://habrahabr.ru/post/146971/ с Xen -> Hyper-V.
    А лучше вот так http://habrahabr.ru/search/?q=%5Bscalaxy%5D&target_type=posts
    А идея и реализация действительно были хороши.

     
     
  • 6.63, Аноним (-), 17:02, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > Да, и чем потом сказка кончилась - http://habrahabr.ru/post/146971/ с Xen -> Hyper-V.

    Эмм... скалакси до сих пор на Xen. На Hyper-V совершенно другой проект компании Оверсан-Меркурий, от которой Скалакси отделился.

    Вы даже свой единственный источник habrahabr умудряетесь по диагонали читать, ошибаясь во втором утверждении подряд.

     
     
  • 7.118, SkyRE (ok), 13:36, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    >> Да, и чем потом сказка кончилась - http://habrahabr.ru/post/146971/ с Xen -> Hyper-V.
    > Эмм... скалакси до сих пор на Xen. На Hyper-V совершенно другой проект
    > компании Оверсан-Меркурий, от которой Скалакси отделился.
    > Вы даже свой единственный источник habrahabr умудряетесь по диагонали читать, ошибаясь
    > во втором утверждении подряд.

    Я сильно и не вчитывался что у них там сейчас, да и с хостингом никоим образом не связан. Но GPFS разрабатывался не для VM-хостинга - а для HPC & Backup. Хотя если GPFS строить на нормальном SAN/Infiniband-сторедже (коего нет у Скалакси из-за стоимости) с правильной разбивкой, а лучше несколько или за кластером SAN Volume Controller - то это будет совсем другой разговор и производительность.

     
     
  • 8.122, Псевдоним (ok), 20:26, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    нормальный - это какой где в тамошнем узкие места А чем в скалакси она неправи... текст свёрнут, показать
     
  • 3.130, Sw00p aka Jerom (?), 19:02, 12/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> а в роли какой фс его использовать ? может нфс ? да
    >> нет стандартный нфс куда стабильнее, может шаред фс ? - да
    >> нет куда стабильнее ocfs2, дистрибьютед ? - хехехе куда лучше уж
    >> люстру, а если ещё и денег достаточно можно и gpfs
    >> так что в полне разумный вопрос - где его использовать ?
    > gpfs тоже не без греха. Пару лет назад ее пытались использовать в
    > одном хостинге под хранилище виртуальных дисков, так его и так и
    > сяк подкручивали, но в оно продакшене недолго продержалось из-за постоянных проблем
    > с стабильностью под данным видом нагрузки.

    в моих тестах gpfs была намного стабилнее люстры

     
  • 2.26, AlexAT (ok), 07:34, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Используем Gluster в роли подложки для кластеризованного бэкенда.
     
     
  • 3.36, Влад (??), 09:51, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    И как?
     
     
  • 4.38, AlexAT (ok), 10:12, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > И как?

    Работает. Тормозновато с кучей мелких файлов, но репликация не подводила ни разу. Центральный вебхост на GlusterFS крутится вполне себе нормально. Основное требование - минимизация stat, это самая тормозная операция в GlusterFS.

    Еще юзаем для бэкапов, тоже вполне себе неплохо - автоматическая переливка данных по сети и автоматический шардинг.

     

  • 1.18, vadikgo (ok), 02:28, 07/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    lustre не умеет реплицировать данные. Эт эдакий raid0 по сети.
    единственный достойный конкурент glusterfs это ceph. Файловая система cephfs ещё не готова к промышленной эксплуатации (сервер метаданных только один), но кластер блочных устройств rbd вполне юзабелен и уже используется, например для виртуальных машин в proxmox, ganeti и opennebula. При этом ceph укладывает gluster на лопатки как по скорости так и по надежности.
     
     
  • 2.22, Аноним (-), 05:35, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > lustre не умеет реплицировать данные. Эт эдакий raid0 по сети.
    > единственный достойный конкурент glusterfs это ceph. Файловая система cephfs ещё не готова
    > к промышленной эксплуатации (сервер метаданных только один), но кластер блочных устройств
    > rbd вполне юзабелен и уже используется, например для виртуальных машин в
    > proxmox, ganeti и opennebula. При этом ceph укладывает gluster на лопатки
    > как по скорости так и по надежности.

    Кстати, в РФ RBD-кластер в промышленной эксплуатации использует проект Flops

     
     
  • 3.40, vadikgo (ok), 11:31, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    >Кстати, в РФ RBD-кластер в промышленной эксплуатации использует проект Flops

    Это объясняет жалобы пользователей на форуме http://forum.flops.ru в стиле
    "Молодцы парни, отличный у Вас "облачный хостинг". Регулярные падения раз-два раза в сутки."
    Ребалансировка rbd кластера приводит к залипаниям ввода/вывода у виртуалок kvm. Ещё у osd серверов ceph есть проблемы с утечкой памяти. В общем не скучно наверное быть админом в flops.ru.

     
  • 2.31, linux must _RIP_ (?), 08:43, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    > lustre не умеет реплицировать данные. Эт эдакий raid0 по сети.

    не умеет. да и не надо было. Хотя если почитаете материалы последнего LUG - то проект network raid реанимировали.

    вы лучше скажите - как cephfs и gluster на скоростях гигабайты в секунду по ib?
    как у них проблемы с recovery - правда ли что cephfs - надеется только на репликацию - и требует в 2 раза больше дисков и электричества для хранения того же объема данных (hint - 12P дискового массива жрут очень дофига, что бы удваивать)


     
     
  • 3.37, AlexAT (ok), 10:08, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > как у них проблемы с recovery - правда ли что cephfs -
    > надеется только на репликацию - и требует в 2 раза больше

    А какие способы гарантированного recovery кроме репликации вам известны?

     
     
  • 4.42, linux must _RIP_ (?), 11:38, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> как у них проблемы с recovery - правда ли что cephfs -
    >> надеется только на репликацию - и требует в 2 раза больше
    > А какие способы гарантированного recovery кроме репликации вам известны?

    гарантированного? а можно описать в каких случаях это вообще надо :-)
    а то Cray об этом не в курсе и не использует recovery вообще :)
    А так.. хотя бы журналирование данных и метаопераций.


     
     
  • 5.53, Аноним (-), 13:16, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    > гарантированного? а можно описать в каких случаях это вообще надо :-)

    "Если мы что-то не поддерживаем, значит, вам это не нужно"

     
     
  • 6.60, linux must _RIP_ (?), 16:10, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> гарантированного? а можно описать в каких случаях это вообще надо :-)
    > "Если мы что-то не поддерживаем, значит, вам это не нужно"

    к слову вариант для тех кому нужно - поддерживается :-)

     
     
  • 7.70, Аноним (-), 18:19, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    >>> гарантированного? а можно описать в каких случаях это вообще надо :-)
    >> "Если мы что-то не поддерживаем, значит, вам это не нужно"
    > к слову вариант для тех кому нужно - поддерживается :-)

    Тогда зачем так старательно доказывать, что оно не нужно? Может, лучше сначала погуглить и выяснить, в каких именно аспектах требуется ваша яростная защита?

     
     
  • 8.80, linux must _RIP_ (?), 19:08, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    старательно я лишь сослался на опыт Cray - вполне себе а как у вас запекло ... текст свёрнут, показать
     
  • 8.81, linux must _RIP_ (?), 19:09, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    кстати raid5 6 вполне могут обеспечить надежность без полной репликации данных -... текст свёрнут, показать
     
     
  • 9.90, AlexAT (ok), 23:53, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Простите, как быть с вашим RAIDx, если потеряется вся нода целиком Две ноды В ... текст свёрнут, показать
     
     
  • 10.93, linux must _RIP_ (?), 00:01, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    нода целиком это как разу все диски рейд возьмут и умрут для мисье секрет что... текст свёрнут, показать
     
     
  • 11.95, Аноним (-), 01:54, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Это очень просто Например, сгорел контроллер или baseboard Я даже больше скажу... большой текст свёрнут, показать
     
     
  • 12.96, vadikgo (ok), 02:24, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Достаточно сдохнуть батарейке в рейд контроллере Сразу-же отключается кэш на за... текст свёрнут, показать
     
     
  • 13.99, AlexAT (ok), 07:20, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Ну уж не всё так страшно Современные контроллеры прекрасно работают без ба... текст свёрнут, показать
     
  • 12.105, linux must _RIP_ (?), 10:00, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Если случится такое - то выход из строя ноды будет самое легкое что произойдет ... текст свёрнут, показать
     
     
  • 13.114, Псевдоним (ok), 11:51, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Если ноды зарезервированы, то это будет единственное, что произойдет На сложнос... текст свёрнут, показать
     
  • 11.98, AlexAT (ok), 07:17, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Это элементарно умерла мать память RAID-контроллер порвали оптику патчкорд до... текст свёрнут, показать
     
     
  • 12.103, linux must _RIP_ (?), 09:55, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    и что JBOD SAS и active-passive резервирование на соседную материнку какое-то ... текст свёрнут, показать
     
     
  • 13.106, AlexAT (ok), 10:03, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    В течение часа для телекома, например - это ни хрена не допустимый простой Ос... текст свёрнут, показать
     
     
  • 14.110, linux must _RIP_ (?), 10:30, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    - смешной ты так что там на счет JBOD SAS и disk backplane к 2 разным материн... текст свёрнут, показать
     
     
  • 15.115, Псевдоним (ok), 12:00, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    А что там насчет стоимости полного резевирования каждого компонента в сравнении ... текст свёрнут, показать
     
     
  • 16.116, linux must _RIP_ (?), 12:24, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не каждого active-passive я не зря указал не хватит - HSM - вполне может спр... текст свёрнут, показать
     
     
  • 17.121, Псевдоним (ok), 20:04, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +1 +/
    active-standby или active-active - не важно Стоимость железа, поддерживающего т... текст свёрнут, показать
     
  • 15.119, AlexAT (ok), 15:53, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    А как насчет отказа backplane Или таки как насчет пожара в ДЦ Развертываемся ... текст свёрнут, показать
     
     
  • 16.126, linux must _RIP_ (?), 08:19, 10/05/2013 [^] [^^] [^^^] [ответить]  
  • –3 +/
    лежит рядом готовый к замене Замена отработана и тп Для выработавщих ресурс пр... текст свёрнут, показать
     
     
  • 17.127, Псевдоним (ok), 23:54, 10/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Поздравляю с даунтаймом А даунтайма быть не должно Ага, а когда сдохнет produc... текст свёрнут, показать
     
     
  • 18.132, linux must _RIP_ (?), 12:29, 13/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    еще раз почитайте что такое HSM в момент _обращения_ данные прийдут с ленты пр... текст свёрнут, показать
     
     
  • 19.133, AlexAT (ok), 07:19, 14/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Т е придется еще держать кластер из ленточных накопителей связанную с ними ди... текст свёрнут, показать
     
  • 19.135, Псевдоним (??), 12:05, 15/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    Еще раз латентностные характеристики ленточного хранилища позволят ему выдержат... текст свёрнут, показать
     

  • 1.24, Ph0zzy (ok), 06:57, 07/05/2013 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Хорошая компания! :)
    с хорошей практикой покупки проектов открытых|закрытых с дальнейшей открытой разработкой :)
     
     
  • 2.89, AlexAT (ok), 23:51, 07/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Хорошая компания! :)
    > с хорошей практикой покупки проектов открытых|закрытых с дальнейшей открытой разработкой
    > :)

    Жалко ksplice проморгали. Сейчас он в какое-то УГ превратился под эгидой одной известной шараги.

     
     
  • 3.94, linux must _RIP_ (?), 00:03, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –3 +/
    >> Хорошая компания! :)
    >> с хорошей практикой покупки проектов открытых|закрытых с дальнейшей открытой разработкой
    >> :)
    > Жалко ksplice проморгали. Сейчас он в какое-то УГ превратился под эгидой одной
    > известной шараги.

    Это вы так о redhat отзываетесь? да.. эти делали что могли что бы усложнить работу ksplice team раз уж не смогли его купить. В результате - с чего бы им любить остальных? может спросим с redhat - чего это они так не любят открытость и кооперацию.. ?


     
     
  • 4.100, AlexAT (ok), 07:22, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Это вы так о redhat отзываетесь? да.. эти делали что могли что

    Для тупых: ksplice сейчас под эгидой oracle.

    > бы усложнить работу ksplice team раз уж не смогли его купить.
    > В результате - с чего бы им любить остальных? может спросим
    > с redhat - чего это они так не любят открытость и
    > кооперацию.. ?

    То, что получилось в результате покупки ксплайса ораклом, вы называете открытостью и кооперацией? До покупки хотя бы часть исходников была открыта. После покупки - где оно?

     
     
  • 5.104, linux must _RIP_ (?), 09:57, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> Это вы так о redhat отзываетесь? да.. эти делали что могли что
    > Для тупых: ksplice сейчас под эгидой oracle.

    для очень тупых - как только redhat не смогло купить ksplice - так сразу начало гадить всем, закрывать все что можно и "защищать" свой бизнес.


    >> бы усложнить работу ksplice team раз уж не смогли его купить.
    >> В результате - с чего бы им любить остальных? может спросим
    >> с redhat - чего это они так не любят открытость и
    >> кооперацию.. ?
    > То, что получилось в результате покупки ксплайса ораклом, вы называете открытостью и
    > кооперацией? До покупки хотя бы часть исходников была открыта. После покупки
    > - где оно?

    Ответ на позицию redhat. почему редхату можно защищать свой бизнес а другим нет?

     
     
  • 6.123, Аноним (-), 22:29, 08/05/2013 [^] [^^] [^^^] [ответить]  
  • +4 +/
    Многовато постов твоих, "я бежала за вами три дня чтобы сказать как вы мне безразличны". Босс за ставил вляпаться в Оракл, и теперь жар снизу обязывает клаву до крови сбивать обcирая Redhat в каждой теме? "У оракла свое ядро" "федора тестовый полигон"... Оракл запрещает публиковать бенчмарки своей БД (вообще лютый пипец, типа Ходжы Насреддина "запрещаю думать про обезьяну"), это тоже шапка виновата?
     
     
  • 7.125, linux must _RIP_ (?), 08:17, 10/05/2013 [^] [^^] [^^^] [ответить]  
  • –2 +/
    переход на личности? а по теме что сказать то хотел.
     
     
  • 8.134, midori (ok), 10:57, 15/05/2013 [^] [^^] [^^^] [ответить]  
  • +/
    глупое вы Страшило, отправляйтесь к Гудвину ... текст свёрнут, показать
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2020 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру