The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Выпуск распределенной файловой системы GlusterFS 3.7, opennews (??), 19-Май-15, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


12. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от Demo (??), 19-Май-15, 14:21 
Используем в продакшене несколько хранилищ на Gluster (сотни терабайт).
Если ничего не трогать в ФС бриков и не добавлять или удалять брики — работает на приём и на отдачу хорошо. Не дай бог, если что-то произошло с FS или отвалился брик, а в это время юзер что-то записал на оставшеся — всё, начинаются проблемы. Кошмаром для админов будет состояние split brain.

> Как будет работать на медленных каналах?

Огромной проблемой является листинг каталогов (DHT феерически тормозит). Листинг каталога в несколько тысяч файлов через WAN превратится для ваших пользователей в мучительный процесс с неизвестным исходом. Оно то и через LAN тормозит не меньше.

Хочется перейти на что-то более вменяемое. Но вот буквально сегодня тестировал Ceph Hammer в 3-хнодовой конфигурации. По питанию рубанул два узла. Один OSD (хранилище) не поднялся по причине порчи журнального файла. И пока вручную не скажешь, что отсутствие одного OSD — это нормально, ввод-вывод на всё хранилище замораживается. По поводу восстановления журнального файла разработчики предлагают с помощью какой-то утилитки из бета-версии (testing) вручную вытягивать сотни Placement Groups. Затем убивать хранилище, создавать новое, с новым журналом, и заполнять его сохранёнными Placement Group-ами на свой страх и риск. — Ну, это не на много лучше ада с gfid-ами в Gluster.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

15. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от Аноним (-), 19-Май-15, 16:19 
Ceph можно изначально сконфигурировать (или потом) на предмет работы в degraded-состоянии.
И, да, три узла - это ни о чём. Ну и отсутствие бесперебойника может "Убить" любую FS при определённом стечении обстоятельств. А при чётном количестве мониторов и у Ceph может случиться раздвоение личности...
Ответить | Правка | Наверх | Cообщить модератору

18. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от Demo (??), 19-Май-15, 19:25 
> Ceph можно изначально сконфигурировать (или потом) на
> предмет работы в degraded-состоянии.

Указано было в конфиге:
osd pool default min size = 1

> три узла - это ни о чём

Для тестирования достаточно.

> отсутствие бесперебойника может "Убить" любую FS при определённом стечении обстоятельств

С FS всё нормально. Накрылся журнальный файл OSD во время самовосстановления. OSD вываливается по Assertion failure через некоторое время после запуска.

Ответить | Правка | Наверх | Cообщить модератору

19. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от тот же самый (?), 19-Май-15, 21:00 
Хм, видимо сыроват, гонял 0.87 - на подобное не нарывался. А какой дистр использовался и откуда ставился ceph?
Ответить | Правка | Наверх | Cообщить модератору

27. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от Demo (??), 21-Май-15, 11:48 
А какой дистр использовался и откуда ставился ceph?

CentOS 7.1.1503.
Ceph Hammer устанавливался по документации из репозитария ceph.com.

Ответить | Правка | Наверх | Cообщить модератору

24. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от mrd (??), 19-Май-15, 23:39 
У нас уже года 2 кластер ceph где-то 150 терабайт по-моему. Точно не помню. Нужно делить на 4 потому что 4 копии хранятся (по 2 на датацентр).
Вроде ничего. Проблемы только когда IO/s от клиентов превышают возможность кластера (чего нужно избегать и расширять или улучшать кэширующий слой преждевременно).
Ceph FS еще не готов, хотя в ограниченом виде мы его используем тоже. В принципе, года через 1.5 возможно можно будет использовать. Но, опять же, это для ленивых или Windows по сути. Программно без файловой системы через S3 например вполне все хорошо работает.
Ответить | Правка | К родителю #12 | Наверх | Cообщить модератору

25. "Выпуск распределенной файловой системы GlusterFS 3.7"  +/
Сообщение от mrd (??), 19-Май-15, 23:40 
> У нас уже года 2 кластер ceph где-то 150 терабайт по-моему. Точно
> не помню. Нужно делить на 4 потому что 4 копии хранятся
> (по 2 на датацентр).
> Вроде ничего. Проблемы только когда IO/s от клиентов превышают возможность кластера (чего
> нужно избегать и расширять или улучшать кэширующий слой преждевременно).
> Ceph FS еще не готов, хотя в ограниченом виде мы его используем
> тоже. В принципе, года через 1.5 возможно можно будет использовать. Но,
> опять же, это для ленивых или Windows по сути. Программно без
> файловой системы через S3 например вполне все хорошо работает.

Я имел ввиду ceph с самого начала.

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру