The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]



"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от opennews (??), 10-Ноя-19, 12:04 
После годичного затишья в разработке возобновилась работа над новой веткой отказоустойчивой распределённой файловой  системы LizardF 3.13 и опубликован второй кандадат в релизы. Недавно произошла смена владельцев компании, развивающей LizardFS, было принято новое руководство и сменились разработчики. Последние два года проект отстранился от сообщества и не уделял ему должного внимания, но новая команда намерена возродить прежние отношения с сообществом и наладить с ним тесное взаимодействие. Код проекта написан на языках С и С++ и распространяется под лицензий GPLv3...

Подробнее: https://www.opennet.ru/opennews/art.shtml?num=51804

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по ответам | RSS]

1. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Иван (??), 10-Ноя-19, 12:04 
Ух ты, дажен не знал о существовании данной ФС, спасибо за информацию, буду разбираться.
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

3. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –4 +/
Сообщение от Онаним (?), 10-Ноя-19, 12:29 
Как там с POSIX-совместимостью и гарантированностью блокировок?
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

4. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 12:37 
Почитал. С блокировками всё относительно нормально, а вот с когерентностью кеша между узлами похоже никак.
Ответить | Правка | ^ к родителю #3 | Наверх | Cообщить модератору

5. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –3 +/
Сообщение от Онаним (?), 10-Ноя-19, 12:39 
Производительность, как обычно, упрётся в мастер-сервер, он один.

В общем, "ещё одна" распределённая файловая система, не предназначенная для параллельной работы над единым набором данных. Для шардинга сойдёт, но смысл, если уже есть цеф с люстрой.

Ответить | Правка | ^ к родителю #4 | Наверх | Cообщить модератору

6. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от vitalif (ok), 10-Ноя-19, 13:00 
Из того, что написано в интернетах - никак не могу понять: случайная мелкая перезапись там поддерживается вообще? Или на каждую модификацию сливает 64 мб? // А сам всё никак не попробую
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

7. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (7), 10-Ноя-19, 13:36 
Емнип сервеов с метаданными там может быть несколько
Ответить | Правка | ^ к родителю #5 | Наверх | Cообщить модератору

8. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 10-Ноя-19, 14:23 
ох уж эти хперты опеннет.

производительность не упрется ни в какой мастер-сервер, потому что его, сюрприз, нету.
metadata node не является никаким "master-server", и не посредничает в операциях.

Насчет "параллельной работы над единым набором" - очень вряд ли получится хорошо, но по совсем другим причинам (в основном по той, что до вот этой новости там вообще все получалось плохо - понабрали каких-то альтернативно-одаренных комитеров в CoC.md в разработчики, и при этом забыли лупить их дубиной по хребту - вплоть до появления версии, при апгрейде на которую уничтожались все данные в кластере. На чем компанию, к счастью, купили другие люди. А старые версии - слишком старые, и имеют массу своих проблем, до конца не решаемых.)

Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Соответственно, сравнивать ее можно с gluster или BeeGFS, но у тех своих тараканов полным-полно.

Ответить | Правка | ^ к родителю #5 | Наверх | Cообщить модератору

9. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 14:27 
metadata node внезапно используется при каждом обращении к каждому файлу. То есть если на это дело шардить и читать многогигабайтные блобы - всё будет ок. А вот если разложить там 100500 файлов - счастью будет плохеть.

> Текущую версию можно и нужно использовать как warm/cold storage для огромных файлопомоек, на которые бессмысленно тратить ресурсы san, и которые при этом нельзя ни сбэкапить, из-за размера, ни потерять.

Цеф, люстра. Короче лизард - около ненужно.

Гластер - ужас ужасный. Нет, концепция хороша, но то, как оно работает, удручает. И воз и ныне там уже лет 5, баг на баге и багом погоняет. Плюс асинхронность репликации метаданных в гластере - это печаль печальная.

Ответить | Правка | ^ к родителю #8 | Наверх | Cообщить модератору

10. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от пох. (?), 10-Ноя-19, 14:27 
это бэкап, он не может использоваться пока жив master. И не может, а должно, если твои данные не writeonly, потому что при превращении мастера в тыкву в нее автоматически превращается весь кластер, эти данные больше вообще взять неоткуда.

Но узким местом при разумных нагрузках мастер не является. Точнее, он лопается раньше, чем становится узким местом - обратите внимание, что ВСЕ метаданные должны помещаться в память единственного узла, никаких других вариантов просто не предусмотрено (костыль с bdb не жизнеспособен, это уже комитеры в CoC придумали).

Ответить | Правка | ^ к родителю #7 | Наверх | Cообщить модератору

11. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от Онаним (?), 10-Ноя-19, 14:27 
> Емнип сервеов с метаданными там может быть несколько

Да. standby. Активный один.

Ответить | Правка | ^ к родителю #7 | Наверх | Cообщить модератору

13. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +5 +/
Сообщение от пох. (?), 10-Ноя-19, 14:43 
> metadata node внезапно используется при каждом обращении к каждому файлу.

и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них (с учетом того что надо вообще-то сам файл все же прочитать или что ты с ним делать собрался)? Впрочем, если разложить там миллион мелких файлов - счастья не будет в принципе, поскольку оно лопнет - память кончится.

> Цеф, люстра. Короче лизард - около ненужно.

наоборот. оверинжинеренное bloatware из миллиарда загадочных оверинжениренных блоатварей и блоатварью погоняет - ненужно, пока ты не гугль или что-то в этом же роде. (в остальных случаях для миллионов мелких файлов с параллельным доступом я выберу самбу или nfs)
Потому что есть мальчики, наивно думающие, что умеют это настраивать (по плохо понятым инструкциям со стековерфлоу) - а потом, по факту, контору просто закрывают, когда все ее данные внезапно отыквливаются без малейшей возможности их восстановить.

Ни с гластером, ни с лизард/муз такой проблемы нет - они просты как палка, и, если не делать резких движений - почти все и всегда можно собрать. Если бы еще и вообще работали - цены б им не было.

С гластером главная беда - что его зохавал редгад. То есть шанса на повторение истории с покупкой кем-то вменяемым и раздачей животворящих пинков девелоперам нет и не будет. Теперь у нас есть версия 3, которая как-то работает, если ни на шаг не отступать от генеральной линии редгада (в частности забыть о ec и не хранить там большие файлы), и не забыть оформить подписку, и есть версии "хочу быть как хром", в которых вообще ничего не работает, потому что макаки принципиально не умеют ничего доделывать до рабочего состояния - "зато мы написали новую версию на игогого, а то этот ваш си немодно и мы его плохо понимаем, только вы ей тоже не пользуйтесь, она немного не работает". Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".

Ответить | Правка | ^ к родителю #9 | Наверх | Cообщить модератору

14. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –2 +/
Сообщение от abi (?), 10-Ноя-19, 14:50 
Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

15. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +12 +/
Сообщение от пох. (?), 10-Ноя-19, 14:51 
если до сих пор счастье этого знания тебя миновало - не торопись разбираться. Поскольку разбираться тебе придется не в технических деталях, а в административно-политических.

Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

Шансы на это появились, тьфу-тьфу-тьфу, но все по прежнему висит на волоске - инвестору может надоесть, разработчики не справятся, менеджеры не справятся, задача может оказаться в принципе нерешаемой из-за ошибок прошлых лет.

Рекомендую посмотреть на gluster - возможно тебе повезет, и на твои задачи его хватит в том виде, в котором он сейчас есть. Концепция там похожая, а недоделки в предсказуемых местах, и не полностью фатальны для данных.
lizard нужна если у тебя 1. большие файлы 2. нетбабланах (нужны EC, а не репликация) 3. клиенты не [только] под линухом. 4. ты не можешь подождать лет пять, пока гластер все это доделает или его не разгонят к чертям

Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

16. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 14:56 
а, блин, вдогонку: lightweight снапшоты и trashcan.
У gluster первого технически не сделать нормально, а второе сделано в виде trash. В смысле, выкрасить и выбросить только.

Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

17. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 10-Ноя-19, 14:59 
без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

C ec, по очевидным причинам, хрень выйдет.

Ответить | Правка | ^ к родителю #6 | Наверх | Cообщить модератору

18. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +6 +/
Сообщение от Иван (??), 10-Ноя-19, 15:05 
Спасибо за развернутый ответ.
Ответить | Правка | ^ к родителю #15 | Наверх | Cообщить модератору

19. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +5 +/
Сообщение от разработчик SCO из 1993го года (?), 10-Ноя-19, 15:46 
> Распределённое блочное хранилище от ноунеймов? Это будет предсказуемо.

unix-like система от какого-то финского студиозуса? Это будет предсказуемо!

P.S. а всего через пять лет меня уволили "при помощи ноги" :-( С тех пор я работаю в макдаке.

Ответить | Правка | ^ к родителю #14 | Наверх | Cообщить модератору

20. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 16:22 
> Четыре, или сколько там уже - версии подряд "уже почти совсем полностью окончательно немного не готово".

Yes.

Ответить | Правка | ^ к родителю #13 | Наверх | Cообщить модератору

21. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 16:23 
> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них

Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...

Ответить | Правка | ^ к родителю #13 | Наверх | Cообщить модератору

22. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от macfaq (?), 10-Ноя-19, 16:24 
Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?
Ответить | Правка | ^ к родителю #13 | Наверх | Cообщить модератору

23. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 16:26 
>> и передает исключительно метаданные. ЧТО такое надо построить, чтобы упереться в них
> Да ничего особенного, достаточно просто ls -l на каталог с 10000-100000 файлов...

Когда метаданные шардятся - оно хотя бы слегка распараллелится. NFS тоже не понравится, но в четвёрке хотя бы можно pNFS собрать для такого счастья.

Ответить | Правка | ^ к родителю #21 | Наверх | Cообщить модератору

24. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 16:27 
> Есть какой-то сравнительный обзор Ceph, Gluster и Moose/Lizard?

Ну вот глустеръ вообще сбоку, а с Ceph интересно бы было.

Ответить | Правка | ^ к родителю #22 | Наверх | Cообщить модератору

25. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 16:44 
доктор, я когда чешу левой пяткой правое ухо через левое плечо - у меня где-то в боку что-то стреляет, так больно!

- Хм... а вот вы так - не делайте!

ls -l на каталог с 100000 файлов, знаешь ли, как-то и на локальной ext4 не очень. Но многим, полагаю, оно и не очень хотелось бы.

Ответить | Правка | ^ к родителю #21 | Наверх | Cообщить модератору

26. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 18:58 
Эксты нормально. OCFS2 тяжело, но справляется. NFS 4.1 тоже справляется, но ещё тяжелее. Распределёнки дохнут.
Ответить | Правка | ^ к родителю #25 | Наверх | Cообщить модератору

27. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –1 +/
Сообщение от Онаним (?), 10-Ноя-19, 19:00 
> а, блин, вдогонку: lightweight снапшоты и trashcan.
> У gluster первого технически не сделать нормально, а второе сделано в виде
> trash. В смысле, выкрасить и выбросить только.

У гластера в trashcan превращается всё хранилище после первого же серьёзного сбоя репликации.

Ответить | Правка | ^ к родителю #16 | Наверх | Cообщить модератору

28. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 19:02 
> без ec - да. Были прецеденты использования этой штуки для раздачи томов под kvm.

Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только, и то, и другое, и можно без хлеба. С этого, думаю, будет не сильно лучше. Пока что лучше нормальной выделенной хранилки iSCSI multipath честно говоря для раздачи томов лучше решения нет.

Ответить | Правка | ^ к родителю #17 | Наверх | Cообщить модератору

29. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от пох. (?), 10-Ноя-19, 20:49 
расскажите, как вы это делаете.

Учитывая что "сбой репликации" у него вообще в клиенте (и тоже интересно - КАК?), а в хранилище банально лежат файлы на банальной xfs или вообще ext4 - поштучно, потому что все "хранилище" - пачка EA привязанных к этим файлам, и их всегда можно руками вытащить. КАК?!

И эти люди будут рассказывать про прелести ceph. Где не то что руками никуда не подлезешь, а понять-то меганавороченные механизмы и научиться хотя бы выбирать правильные - годы уйдут.

Ответить | Правка | ^ к родителю #27 | Наверх | Cообщить модератору

30. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –1 +/
Сообщение от пох. (?), 10-Ноя-19, 20:55 
> Тома под KVM можно и с гластеров раздавать, и с цефа. Тормозно только,

вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем других, как бы намекает, что для большинства применений вполне разумно.

Но я намекал только на то, что они не пишутся по 64 мегабайта за раз, и раз эта штука вообще работала - никаких особых ужасов с произвольным доступом там нет.

> Пока что лучше нормальной выделенной хранилки iSCSI multipath

а сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить. Ну и в общем-то, хуже iSCSI протокол придумать сложно (понятно, что для наколенных решений выбирать особо не из чего, но тем не менее).

Ответить | Правка | ^ к родителю #28 | Наверх | Cообщить модератору

31. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (31), 10-Ноя-19, 22:01 
> и не забыть оформить подписку

э... А ты само то надеешься на их подписку? И чем поможет тебе очередной Мьяньманьян Суббараян при накрытии гластера медным тазом? Да, основные их рекомендации - это удаление вольюмов и создание новых. От под-писки редгада гемора только больше станет. Весь рэд-гад сторож сейчас в Бангалоре пячат.

Ответить | Правка | ^ к родителю #13 | Наверх | Cообщить модератору

32. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:24 
> вообще-то - штатное решение проксмоксы. При наличии вообще говоря отсутствия в нем
> других, как бы намекает, что для большинства применений вполне разумно.

С проксмоксом гластер можно. Птицы одного помёта. А вот с адекватными системами виртуализации лучше всё-таки не использовать.

:)

> сама хранилка из воздуха берется? Иначе возвращаемся к вопросу - из чего ее строить.

Из LVM, если кустарно, из собственного блочного решения, если профессионально, в случае неумения - покупать правильный iSCSI SAN (не путать с кустарными NAS, где под iSCSI может быть обычное кустарное решение на файлухе типа ZFS) у тех, кто умеет в SAN.

Ответить | Правка | ^ к родителю #30 | Наверх | Cообщить модератору

33. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:28 
> расскажите, как вы это делаете.

Ну у меня там просто не полторы виртуалки лежало. Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов по 1-30 метров каждый. Поигрался, пока репликация этого счастья колом не встала. Вытащилось-то всё, конечно, по датам модификации без проблем, но сам гластер оказался неюзабелен - репликация легла до такого состояния, что ноды ставили сеть раком и не синхронизировались никогда.

Ответить | Правка | ^ к родителю #29 | Наверх | Cообщить модератору

34. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 22:31 
С Ceph кстати тоже не пошло, упёрлись в latency на геораспределённой хранилке. Сейчас под этим добром лежит OCFS2 в итоге.
Ответить | Правка | ^ к родителю #33 | Наверх | Cообщить модератору

35. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:32 
Shared LUN - не совсем то, что хотелось, хотелось распределённо данные выкорябывать, чтобы bandwidth был потенциально бесконечный, но на практике хрен он этот bandwidth занимает, упирается в latency между узлами и клиентами.
Ответить | Правка | ^ к родителю #34 | Наверх | Cообщить модератору

36. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Michael Shigorinemail (ok), 10-Ноя-19, 22:44 
> упёрлись в latency на геораспределённой хранилке

Поищите запись/тезисы доклада Евгения Полякова на первом LinuxPiter, очень толково, насколько вообще могу судить.  Но они в итоге уже к Reverbrain/Elliptics пришли к объектным хранилкам, опять же насколько помню.

PS: в смысле именно из-за латентности длинных соединений.

Ответить | Правка | ^ к родителю #34 | Наверх | Cообщить модератору

37. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 23:13 
> Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов

хорошенький стресс-тест. вам бы с этим в тестировщики в редхат наняться до их покупки ебеме - глядишь, успели бы что починить ;-)

Я, честно говоря, удивился бы, если бы такое работало.

Но все же интересны детали - репликацией в gluster занимается исключительно _клиент_. Сломать кластер он не сможет - только записать мусор вместо данных или неправильно раскидать по нодам, но этого ж добиться надо суметь.

Так что расскажите подробностей, что и как вы ТАК ухитрились в нем поломать, что было сконфигурено, что в результате показывал gluster volume status и heal - может кому пригодиться чтоб ТАК не делать.

Ответить | Правка | ^ к родителю #33 | Наверх | Cообщить модератору

38. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 23:25 
> э... А ты само то надеешься на их подписку?

ну можешь сам все чинить, под бодрые вопли бегающих вокруг начальников начальников.
А можешь гордо ответить "тикет в поддержке заведен, у нас sla 2часа, Кумар проснется, все починит". Как показывает практика, это лучший способ добиться тишины и спокойствия в операционной.

Просто одно дело если у тебя должность "самый главный инженер отдела gluster кластера", и есть время и вдохновение знать потроха лучше любых кумаров, которые их писали на грязной коленке, а совсем другое - когда это одна деталька из тысячи, и вообще говоря есть еще чем кроме нее заниматься, поэтому основной источник знаний - маловнятная дока на redhat.com, описывающая версию 2015го года.

Поверь, с кумарами в итоге легче иметь дело, чем самому без конца нырять на дно новой ямы с ведерком.

Правда, должен признать, что именно с редхатовскими кумарами я общался лет семь назад, и тогда они еще из гей-арии отвечали. Возможно, сейчас все стало в разы хуже - но, с другой стороны, вряд ли у них какие-то другие кумары чем у остальных прочих. А те все же больше чинят, чем мешают.

Ответить | Правка | ^ к родителю #31 | Наверх | Cообщить модератору

39. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 10-Ноя-19, 23:45 
> Из LVM, если кустарно

и вот совсем не ссыкотно?

> в случае неумения - покупать правильный iSCSI SAN

правильный san - он FC/FCoE, а не iSCSI (есть возможность сравнить, если что). Но он, с-ка, денег стоит - два состава. А внутри, что характерно, очень похожее на ZFS. Прям вот ну оооочень похожее.

А потом в один прекрасный день у тебя переклинивает sfp. Модную, где наклейка поверх залеплена другой, с лого производителя хранилки. И которая стоит как пять нормальных.
И ВЕСЬ, вообще весь сторадж - ложится к хренам, со всем своим multipath и многоразовым резервированием. А потом еще пару раз в разгар рабочего дня - когда ты кумарам собираешь данные для RMA, потому что без данных они не могут, и в нерабочее время тоже не могут.

После этого как-то начинаешь любить простые наколенные решения там, где супер-производительность не требуется, достаточно и приемлемой. Хотя от непростых деваться все равно уже некуда.

Ответить | Правка | ^ к родителю #32 | Наверх | Cообщить модератору

40. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 07:25 
daos ?
Ответить | Правка | ^ к родителю #9 | Наверх | Cообщить модератору

41. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (31), 11-Ноя-19, 08:09 
Согласен, поддержка красной ненависти - хороший громоотвод, возможно... Хотя нет. Не согласен. Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней. Это все при SLA и премиум под-писке. Начальники - это вторые, кто был в курске проблем ещё до обращения в ТП. Они были не настолько тупы, чтобы бегать по кругу.
Касательно организации арботы красноненавистные кумары берут пример с сиски. Блочат вопрошающего на своём уровне и не пускают на эскалацию. И так до тех пор, пока к ним не приведёшь своих продаванов, которые обоснуют за SLA.
Ответить | Правка | ^ к родителю #38 | Наверх | Cообщить модератору

42. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 10:53 
может и не создаться 10млн. - зависит от длины имени..
Да и скорость create/lookup в такой дире очень фиговая.
А потом еще место не возвращается после удаления.
Ответить | Правка | ^ к родителю #25 | Наверх | Cообщить модератору

43. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от пох. (?), 11-Ноя-19, 10:54 
> Прошлый раз, полгода назад, мы пинали Марьянмара, ушло тупо несколько дней.

ну у меня прошлый раз ушло полтора месяца (с параллельным сованием костылей и подпорочек куда получилось, потому что нихрена непонятно было, на самом деле, что поломано) на нормального испанца из поддержки citrix. Видно было, что этот висящий приоритетный таск его затрахал уже по самые уши, и ну очень хочется уже его закрыть нахрен любым способом.

К счастью, оно напрягало только далеко-далеко замкадные филиалы (потому что проявлялось на очень плохих каналах), и они как-то перетоптались.

Но сам бы я это вообще навряд ли починил - в том числе потому, что помимо этого сервиса на том кластере еще полсотни тоже бизнес-критикал, и тыкать галочки наугад "может вот это поможет, а может все остальное упадет" что-то вот совсем было неохота. Да и по команде саппорта можно только в отведенное время, и с кучей согласований.

Не говоря уже, естественно, о том, что специалистов по именно citrix nlb у нас, как ты понимаешь, тоже не водится, и желающих такими становиться что-то не видать, а они там свой собственный ни с чем несовместимый tcp-протокол умудрились изобрести (даром что, кажется, ядро у них от freebsd).

> Блочат вопрошающего на своём уровне и не пускают на эскалацию.

п-сы. Причем это, понятно, не про кумаров, а про тех дЭффективных, которые запрещают им эскалировать пока ломом не навернут.

Ответить | Правка | ^ к родителю #41 | Наверх | Cообщить модератору

44. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от PnDx (ok), 11-Ноя-19, 13:02 
> А потом еще место не возвращается после удаления.

ext4-only.
Берите под такое xfs (если внизу не deb). Под RH/OLE-образное у меня в коллекции ни единого сюрприза. Все непонятки сводились к "выбиванию табуретки" (qcow|zfs внизу ВМ и "внезапно" xfs орёт "ой, а где мои метаданные?!").
* Под последние deb — просто не знаю, а раньше поддерживали аналогично lvm (т.е. "что-то собрали в пакет").
* ext-fs в аналогичных ситуациях не припомню чтобы беспокоились. Пока (будущий кирпич) не перезагрузят.

Ответить | Правка | ^ к родителю #42 | Наверх | Cообщить модератору

45. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (45), 11-Ноя-19, 14:08 
Сначала работал на гластере, глюкавое еще то было (свыше 10 лет назад), потом перешел на MooseFS, через пару лет на LizardFS. Кластер был наверное один из крупнейших на этой системе, на сотни терабайт и десятки миллионов чанков. проработал с ним несколько лет. Рабочая штука, не без изъянов, но не критичных. Незаслуженно обделенная вниманием.
Ответить | Правка | ^ к родителю #18 | Наверх | Cообщить модератору

46. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 11-Ноя-19, 14:13 
FC/FCoE - ну хз. С моей т.з. де факто полутруп, так-то, вытесняется iSCSI.
Другое дело, что iSCSI надо уметь готовить, обычные копеечные свитчи под него лучше не совать, с другим трафиком не комбинировать, и т.п.
Ну и там тоже SFP есть :)

У нас в этом плане решение №3, "покупать". Переклинит SFP - да похер. Два разведённых в стороны канала по несколько 10G SFP каждый, от каждой хранилки. Даже если целиком ляжет один сектор, а не просто SFP - ничего страшного не случится. _Синхронная_ репликация между дц (формально геораспределение, но регион один, поэтому latency не фатальные). multipath к набору сторейджей в разных DC, формально получается "георепликация", но latency не настолько унылы, чтобы запороть всё. Короче, максимум возможного в пределах бюджета.

Никто не гарантирует 100%, конечно, что софт совсем не ляжет к хренам со всеми данными вместе, конечно, на этот случай есть бэкапы.

Никто также не гарантирует, что не придётся пинать саппорт, но за саппорт и определённый SLA платятся деньги.

В общем, как всегда, выбор из выборов. Но по крайней мере full flash решение, с быстрыми тонкими снэпшотами, синхронной репликацией, двукратным дублированием (аналогом RAID6), распределённой тонким слоем по дискам запаской, арбитражом, multipath и ALUA, дублированием железа и связности, авто-фейловером и т.п. На коленке такое задолбаешься собирать, чтобы оно ещё и надёжно работало.

Ответить | Правка | ^ к родителю #39 | Наверх | Cообщить модератору

47. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 11-Ноя-19, 14:16 
Да обычная реплика + шарды. Хорошо хоть страйп не сделал, из страйпа вообще упал бы потом выковыривать.
Ответить | Правка | ^ к родителю #37 | Наверх | Cообщить модератору

48. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от PnDx (ok), 11-Ноя-19, 14:19 
> и вот совсем не ссыкотно?

Зря Вы так. Если не выёживаться с thin-provisioning и прочими RAID, он внутри простой как палка.
+ См. sanlockd: возрождает ну оочень старую идею. На мой вкус, достаточно перспективно.

* FC местами тоже "маловато будет". На перспективу — таки IB.

Ответить | Правка | ^ к родителю #39 | Наверх | Cообщить модератору

50. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 14:58 
традиционный вопрос - расскажите подробностей - версии, настройки redundancy goals, сколько жрал метасервер и как с этим справлялись, ну и где грабли, если они описуемы словами.

> Незаслуженно обделенная вниманием.

выпуск версии, при апгрейде уничтожающей кластер, два года отсутствия разработки, обещания все переписать с нуля и несовместимым образом вместо починки поломанного - вы считаете такой результат - незаслуженным?

При том что рядом лежала работающая (если забыть о ec или купить кота в мешке) moose, и почти работающий gluster...

Ответить | Правка | ^ к родителю #45 | Наверх | Cообщить модератору

51. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 15:01 
в смысле, distributed-replicated, то есть эн реплик по 2*N (не >2, надеюсь)? Убилось-то оно у вас как - клиент писал-писал, и что-то такое понаписал на этих миллионах файлов?

И на какой версии вся эта красота?

Ответить | Правка | ^ к родителю #47 | Наверх | Cообщить модератору

52. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 11-Ноя-19, 16:33 
у xfs cвои сюрпризы - достаточно посмотреть груды патчей которые вливает шапка в свои ядра.
Ответить | Правка | ^ к родителю #44 | Наверх | Cообщить модератору

53. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (53), 11-Ноя-19, 20:18 
POSIX-совместимость в кластерной ФС - гарантия хреновой производительности
Ответить | Правка | ^ к родителю #3 | Наверх | Cообщить модератору

54. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 11-Ноя-19, 23:12 
ну на вас не угодишь - два года нет патчей - "аааа, проект мертв, убегаем, убегаем", есть патчи - "аааа, все поломано, без ведра запчастей не поедешь, убегаем, убегаем"

Ответить | Правка | ^ к родителю #52 | Наверх | Cообщить модератору

55. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 12-Ноя-19, 08:09 
IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
Так что FC можно хоронить.
Ответить | Правка | ^ к родителю #48 | Наверх | Cообщить модератору

56. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Аноним (42), 12-Ноя-19, 08:11 
вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB) это прошлый век.
Ответить | Правка | ^ к родителю #46 | Наверх | Cообщить модератору

57. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 12-Ноя-19, 09:24 
> вообще уже давно есть NVMe over fabric... а iSCSI (даже over IB)
> это прошлый век.

Ну давай, построй мне распределённую между ДЦ хранилку на NVMe.

Ответить | Правка | ^ к родителю #56 | Наверх | Cообщить модератору

58. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 12-Ноя-19, 09:25 
> IB FDR стоит сейчас как грязь (500 баксов свич/200 карта)..
> Так что FC можно хоронить.

Ну вот кстати да, если есть недоверие к эзеру, проще иб взять.

Ответить | Правка | ^ к родителю #55 | Наверх | Cообщить модератору

59. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от Онаним (?), 12-Ноя-19, 09:26 
Увы да. А несовместимость = пригодность разве что для файлопомойки, или надо городить кучу костылей.
Ответить | Правка | ^ к родителю #53 | Наверх | Cообщить модератору

60. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 12-Ноя-19, 10:25 
не, не проще - то что стоит как грязь, оно и работает как грязь. И драйверы у него из той же субстанции. И кабели, кстати. В это все как раз наигрались во времена попыток строить хранилки из дерьма и палок на базе zfs.

Не говоря уже о том, что втыкать его часто и некуда - у большинства современных блейдовых шасси есть fcoe, у многих есть просто отдельный свитч для fc (у устаревших - только он и есть), а ib как-то не предусмотрели.

Никаких особых проблем с fcoe на нормальных свитчах (читай, nexus >4k) в общем-то не наблюдалось, в том числи и при репликации cross-dc.

Ответить | Правка | ^ к родителю #58 | Наверх | Cообщить модератору

61. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от SysA (?), 14-Ноя-19, 12:43 
Лови: https://sysadmin.libhunt.com/compare-ceph-vs-moosefs
Ответить | Правка | ^ к родителю #22 | Наверх | Cообщить модератору

62. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Michael Shigorinemail (ok), 29-Ноя-19, 19:46 
Туда же: омичи из bitblaze собирались открывать kfs, насколько знаю; вот что голова конторы говорит в сравнении с ceph: https://www.youtube.com/watch?v=MEZ-THg6gzo&t=49m37s
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору


Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Спонсоры:
Слёрм
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2020 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру