The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Обновление кластерной файловой системы LizardFS 3.13.0-rc2, opennews (??), 10-Ноя-19, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


1. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Иван (??), 10-Ноя-19, 12:04 
Ух ты, дажен не знал о существовании данной ФС, спасибо за информацию, буду разбираться.
Ответить | Правка | Наверх | Cообщить модератору

15. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +12 +/
Сообщение от пох. (?), 10-Ноя-19, 14:51 
если до сих пор счастье этого знания тебя миновало - не торопись разбираться. Поскольку разбираться тебе придется не в технических деталях, а в административно-политических.

Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

Шансы на это появились, тьфу-тьфу-тьфу, но все по прежнему висит на волоске - инвестору может надоесть, разработчики не справятся, менеджеры не справятся, задача может оказаться в принципе нерешаемой из-за ошибок прошлых лет.

Рекомендую посмотреть на gluster - возможно тебе повезет, и на твои задачи его хватит в том виде, в котором он сейчас есть. Концепция там похожая, а недоделки в предсказуемых местах, и не полностью фатальны для данных.
lizard нужна если у тебя 1. большие файлы 2. нетбабланах (нужны EC, а не репликация) 3. клиенты не [только] под линухом. 4. ты не можешь подождать лет пять, пока гластер все это доделает или его не разгонят к чертям

Ответить | Правка | Наверх | Cообщить модератору

18. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +6 +/
Сообщение от Иван (??), 10-Ноя-19, 15:05 
Спасибо за развернутый ответ.
Ответить | Правка | Наверх | Cообщить модератору

45. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Аноним (45), 11-Ноя-19, 14:08 
Сначала работал на гластере, глюкавое еще то было (свыше 10 лет назад), потом перешел на MooseFS, через пару лет на LizardFS. Кластер был наверное один из крупнейших на этой системе, на сотни терабайт и десятки миллионов чанков. проработал с ним несколько лет. Рабочая штука, не без изъянов, но не критичных. Незаслуженно обделенная вниманием.
Ответить | Правка | Наверх | Cообщить модератору

50. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 14:58 
традиционный вопрос - расскажите подробностей - версии, настройки redundancy goals, сколько жрал метасервер и как с этим справлялись, ну и где грабли, если они описуемы словами.

> Незаслуженно обделенная вниманием.

выпуск версии, при апгрейде уничтожающей кластер, два года отсутствия разработки, обещания все переписать с нуля и несовместимым образом вместо починки поломанного - вы считаете такой результат - незаслуженным?

При том что рядом лежала работающая (если забыть о ec или купить кота в мешке) moose, и почти работающий gluster...

Ответить | Правка | Наверх | Cообщить модератору

64. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 11:49 
> При том что рядом лежала работающая (если забыть о ec или купить
> кота в мешке) moose, и почти работающий gluster...

так у moose, кажется, тоже стагнация

Ответить | Правка | Наверх | Cообщить модератору

66. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 12:43 
>> При том что рядом лежала работающая (если забыть о ec или купить
>> кота в мешке) moose, и почти работающий gluster...
> так у moose, кажется, тоже стагнация

у moose живое комьюнити и живые продажи. Там тоже полтора поляка в разработке, поэтому чудес не происходит - но им и не надо, у них нет пяти висящих багов с тотальным разрушением кластеров.

То есть оно как-то работает, поддерживается, ошибки фиксятся. Новых чудес не обещают, но не больно и хотелось бы.

Проблема с музей лично для меня в том что a) оно не поддерживает ec кроме коммерческой версии и той в очень странной конфигурации 8+ nodes, чего я у себя категорически не желаю b) ее виндовый драйвер (тоже платный) использует устаревший и неэффективный dokany.

Ответить | Правка | Наверх | Cообщить модератору

63. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 11:47 
> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и, главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю версию которой можно пользоваться.

что-то релиза нет, таки не шмогла?

Ответить | Правка | К родителю #15 | Наверх | Cообщить модератору

65. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 12:38 
>> Пользоваться этой штукой можно будет через два месяца - _если_ новые разработчики (и,
>> главное, новые погонщики с плетками) справятся с поставленной задачей - выпустят таки 13ю
>> версию которой можно пользоваться.
> что-то релиза нет, таки не шмогла?

таки не. Нет не то что релиза, а rc3 с закрытием назойливого бага - который должен был быть в марте.

https://github.com/lizardfs/lizardfs/commits/master
героическими усилиями только сломали совместимость с python2. При том что эта часть скорее клиент чем сервер, и поддержка "немодных" систем должна быть как минимум как опция.

Насколько я понимаю, основные денежки проекту капают от коммерческих клиентов, купивших все вместе с обслуживанием - и все усилия уходят на то чтобы они не сбежали окончательно.

А те навряд ли вообще планируют апгрейдиться - наелись предыдущего раза. Поэтому вместо разработки разработчики занимаются вот таким: https://github.com/lizardfs/lizardfs-audit

community-форум угробили, линк на него возвращает обратно на lizardfs.com, как будто так и надо (обещали еще в марте что-то сделать вместо - и ничего ниасилили)

Причем в апреле они гордо говорили что наняли таки разработчиков - включая одного из первоначальных авторов форка. Но судя по комитам - разработчики у них только на sh и python.

Так что либо делать и поддерживать свой форк, либо закапывать. :-(

btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)

Ответить | Правка | Наверх | Cообщить модератору

67. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 20-Июн-20, 13:02 
> Так что либо делать и поддерживать свой форк, либо закапывать. :-(

а что вообще стоит посмотреть? примерно 10kk файлов, под 150 Tb.
основная задача: отдавать nginx'ом статику

сейчас сделано просто: несколько машин с дисками по 10 Tb, на каждой свой nginx, в базе указано какой файл где лежит.
работает отлично, но хочется иметь некоторую избыточность/EC (на несколько реплик денег жалко).

> btw, если кто готов помочь с гуглокодом - буду крайне признателен. Хотя бы в виде тыканья пальцем, где читать документацию. (кусок кода скопипащен из мертвого гуглопрожекта. Он a) x8664 only b) неправильно детектирует конфигурацию. К сожалению, я ничерта не понимаю ни в интрисиках, ни в системах команд модных процессоров.)

я что-то потерял нить…

Ответить | Правка | Наверх | Cообщить модератору

68. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 20-Июн-20, 13:41 
> а что вообще стоит посмотреть?

если это у тебя за деньги - не вижу проблем ни с gluster, ни с moose.

Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.
distributed тебе при этом не надо, так что gluster ближе всего к искомому.

Но, опять же - если это за деньги, смотреть скорее в репликацию а не в ec.

> я что-то потерял нить…

это текущая проблема lizard лично для меня.
Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить) - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется на неправильной платформе (традиционный гуглокодинг стайл).

Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным компилятором, конечно), но оптимизации есть только для x86

где про эту муть вообще почитать, и отдельно - про neon ?

Ответить | Правка | Наверх | Cообщить модератору

69. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от edo (ok), 21-Июн-20, 00:55 
> если это у тебя за деньги - не вижу проблем ни с
> gluster, ни с moose.

нет, хочется бесплатно )

> Тупо сравнить производительность на твоих задачах, и остановиться на первой приемлемой.

«тупо сравнить» на объёме >>100 Tb не так уж и просто.

> это текущая проблема lizard лично для меня.
> Существует в v3.12.0 (поскольку более новые даже в костюме химзащиты нельзя ставить)
> - в external/crcutil-1.0 лежит кусок гуглового навоза. Это даже не соберется
> на неправильной платформе (традиционный гуглокодинг стайл).
> Еще одно нехорошее место - src/common/galois_field_encode.cc - это собирается (единственноверным
> компилятором, конечно), но оптимизации есть только для x86
> где про эту муть вообще почитать, и отдельно - про neon ?

хочется запустить это всё на арме с оптмизациями? я не уверен, если честно, что оптимизации расчёта crc как-то повлияют на итоговую производительность, да и про ec надо смотреть, возможно, оптимизации не так уж и важны.

Ответить | Правка | Наверх | Cообщить модератору

70. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 21-Июн-20, 10:34 
> «тупо сравнить» на объёме >>100 Tb не так уж и просто.

сравни на части объема. Они не требуют переформатировать диски если там не ntfs, можно запустить обе параллельно и продолжить раздавать основную часть старым способом.

Но ec в гластере - крайне загадочны и толком никем не тестированы. Впрочем, он весь загадочен, и я его забраковал по расистским соображениям.

> хочется запустить это всё на арме с оптмизациями?

там не только на арме, там даже llvm не соберет.
Впрочем, оно без ручных правок не собирается даже на 32битных системах - сборку там писал какой-то дятел, вообще не понимающий как работает cmake и наговнявший как попало.

Теоретически, оно может этот крэп выкинуть и собраться с isal, если найдет, но для моей системы нет isal и его тут будет очень сложно собрать. И все это ради функции в двадцать строчек я точно не хочу. При этом все эти вычисления, как и у gluster, выполняются _на_клиенте_, так что производительность важна, клиенты у меня разные, и чаще всего - дохловаты для 100mb/s. crc менее важен, но, afiu - напрямую влияет на цикл проверки bitrot, чем он короче, тем безопаснее с этим жить.

Так что повторяю вопрос - где прочитать что эти все закорючки означают и где накопипастить закорючек для neon?

Ну где-то же авторы нашли всю эту хрень (хотя могли и копипастить у интела, не понимая ни слова, конечно - может потому и не смогли пофиксить фичу 13й - не понимали, что творят).

Ответить | Правка | Наверх | Cообщить модератору

71. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 21-Июн-20, 18:17 
результаты теста (винды) на слабом процессоре оказались довольно предсказуемы - 28-30мб write, 16 in. Упирается именно в процессор. _клиента_.

При goal=1 - сразу же 35 (упирается уже в возможности тестовой vm) и 25. Таки говорите не нужны оптимизации? ;-)

Ответить | Правка | К родителю #69 | Наверх | Cообщить модератору

16. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 14:56 
а, блин, вдогонку: lightweight снапшоты и trashcan.
У gluster первого технически не сделать нормально, а второе сделано в виде trash. В смысле, выкрасить и выбросить только.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

27. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  –1 +/
Сообщение от Онаним (?), 10-Ноя-19, 19:00 
> а, блин, вдогонку: lightweight снапшоты и trashcan.
> У gluster первого технически не сделать нормально, а второе сделано в виде
> trash. В смысле, выкрасить и выбросить только.

У гластера в trashcan превращается всё хранилище после первого же серьёзного сбоя репликации.

Ответить | Правка | Наверх | Cообщить модератору

29. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +3 +/
Сообщение от пох. (?), 10-Ноя-19, 20:49 
расскажите, как вы это делаете.

Учитывая что "сбой репликации" у него вообще в клиенте (и тоже интересно - КАК?), а в хранилище банально лежат файлы на банальной xfs или вообще ext4 - поштучно, потому что все "хранилище" - пачка EA привязанных к этим файлам, и их всегда можно руками вытащить. КАК?!

И эти люди будут рассказывать про прелести ceph. Где не то что руками никуда не подлезешь, а понять-то меганавороченные механизмы и научиться хотя бы выбирать правильные - годы уйдут.

Ответить | Правка | Наверх | Cообщить модератору

33. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:28 
> расскажите, как вы это делаете.

Ну у меня там просто не полторы виртуалки лежало. Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов по 1-30 метров каждый. Поигрался, пока репликация этого счастья колом не встала. Вытащилось-то всё, конечно, по датам модификации без проблем, но сам гластер оказался неюзабелен - репликация легла до такого состояния, что ноды ставили сеть раком и не синхронизировались никогда.

Ответить | Правка | Наверх | Cообщить модератору

34. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +1 +/
Сообщение от Онаним (?), 10-Ноя-19, 22:31 
С Ceph кстати тоже не пошло, упёрлись в latency на геораспределённой хранилке. Сейчас под этим добром лежит OCFS2 в итоге.
Ответить | Правка | Наверх | Cообщить модератору

35. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 10-Ноя-19, 22:32 
Shared LUN - не совсем то, что хотелось, хотелось распределённо данные выкорябывать, чтобы bandwidth был потенциально бесконечный, но на практике хрен он этот bandwidth занимает, упирается в latency между узлами и клиентами.
Ответить | Правка | Наверх | Cообщить модератору

36. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Michael Shigorinemail (ok), 10-Ноя-19, 22:44 
> упёрлись в latency на геораспределённой хранилке

Поищите запись/тезисы доклада Евгения Полякова на первом LinuxPiter, очень толково, насколько вообще могу судить.  Но они в итоге уже к Reverbrain/Elliptics пришли к объектным хранилкам, опять же насколько помню.

PS: в смысле именно из-за латентности длинных соединений.

Ответить | Правка | К родителю #34 | Наверх | Cообщить модератору

37. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +2 +/
Сообщение от пох. (?), 10-Ноя-19, 23:13 
> Я туда пытался рабочий набор статистики загрести, несколько сот тысяч файлов

хорошенький стресс-тест. вам бы с этим в тестировщики в редхат наняться до их покупки ебеме - глядишь, успели бы что починить ;-)

Я, честно говоря, удивился бы, если бы такое работало.

Но все же интересны детали - репликацией в gluster занимается исключительно _клиент_. Сломать кластер он не сможет - только записать мусор вместо данных или неправильно раскидать по нодам, но этого ж добиться надо суметь.

Так что расскажите подробностей, что и как вы ТАК ухитрились в нем поломать, что было сконфигурено, что в результате показывал gluster volume status и heal - может кому пригодиться чтоб ТАК не делать.

Ответить | Правка | К родителю #33 | Наверх | Cообщить модератору

47. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от Онаним (?), 11-Ноя-19, 14:16 
Да обычная реплика + шарды. Хорошо хоть страйп не сделал, из страйпа вообще упал бы потом выковыривать.
Ответить | Правка | Наверх | Cообщить модератору

51. "Обновление кластерной файловой системы LizardFS 3.13.0-rc2"  +/
Сообщение от пох. (?), 11-Ноя-19, 15:01 
в смысле, distributed-replicated, то есть эн реплик по 2*N (не >2, надеюсь)? Убилось-то оно у вас как - клиент писал-писал, и что-то такое понаписал на этих миллионах файлов?

И на какой версии вся эта красота?

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру