The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Выпуск Stratis 2.0, инструментария для управления локальными хранилищами

07.11.2019 20:39

После года разработки опубликован выпуск проекта Stratis 2.0, развиваемого компанией Red Hat и сообществом Fedora для унификации и упрощения средств настройки и управления пулом из одного или нескольких локальных накопителей. Stratis предоставляет такие возможности, как динамическое выделение места в хранилище, снапшоты, обеспечение целостности и создание слоёв для кэширования. Код проекта написан на языке Rust и распространяется под лицензией MPL 2.0.

Система во многом повторяет по своим возможностям расширенные средства управления разделами ZFS и Btrfs, но реализована в виде прослойки (демон stratisd), работающей поверх подсистемы device-mapper ядра Linux (используются модули dm-thin, dm-cache, dm-thinpool, dm-raid и dm-integrity) и файловой системы XFS. В отличие от ZFS и Btrfs, компоненты Stratis работают только в пространстве пользователя и не требуют загрузки специфичных модулей ядра. Проект изначально преподносится как не требующий для администрирования квалификации эксперта по системам хранения.

Для управления предоставляется D-Bus API и cli-утилита. Работа Stratis протестирована с блочными устройствами на базе LUKS (шифрованные разделы), mdraid, dm-multipath, iSCSI, логическими томами LVM, а также с различными НЖМД, SSD и NVMe-накопителями. При наличии в пуле одного диска Stratis позволяет использовать логические разделы с поддержкой снапшотов для отката изменений. При добавлении нескольких накопителей в пул появляется возможность логического объединения накопителей в непрерывную область. Такие возможности, как RAID, сжатие данных, дедупликация и организация отказоустойчивости пока не поддерживаются, но запланированы на будущее.

В новом выпуске повышены требования к версии компилятора Rust (как минимум 1.37, но рекомендуется 1.38). Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus (выделен набор первичных фундаментальных свойств, а остальные свойства теперь запрашиваются при помощи нового метода FetchProperties).

  1. Главная ссылка к новости (https://github.com/stratis-sto...)
  2. OpenNews: Релиз дистрибутива Red Hat Enterprise Linux 8
  3. OpenNews: Выпуск Stratis 1.0, инструментария для управления локальными хранилищами
  4. OpenNews: Релиз Linux-дистрибутива Fedora 28
Лицензия: CC-BY
Тип: Программы
Ключевые слова: stratisd, fedora
При перепечатке указание ссылки на opennet.ru обязательно
Обсуждение (133) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, ilyafedin (ok), 20:57, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    Удивительно, но из-за лицензионных злодеяний оракла мы не можем нормально использовать элегантную ZFS. Вместо этого редхат как всегда накостылял монстра из D-Bus и прочих костылей с клеем, который теперь единственный будет работать без боданий с DKMS (btrfs же так и не стала стабильной).

    Более того, дистрибутивы фрагментируются в очередной раз на три технологии (ладно, обычно на две, но все же):
    Редхатовые - Stratis
    SUSE - BtrFS
    Ubuntu - ZFS

    Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту.

     
     
  • 2.3, Аноним (3), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    ZFS жрет память как не в себя, а VDO работает только в редхате, значит для использования не целесообразно.
     
     
  • 3.6, rinat85 (?), 21:28, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    без deduplication и небольшим тюнингом настроек в /etc/default/zfs (оно вроде по умолчанию хочет 2/3 ram) живёт смирно
     
     
  • 4.115, Аноним (3), 23:03, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    а кому вообще нужно он без дедупликейшн?
     
  • 3.14, пох. (?), 22:29, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –3 +/
    ваш линух жрет память как не в себя:
    Mem:       8160616    8030568     130048          0     152280    7144344
    -/+ buffers/cache:     733944    7426672
    видали - восемь гиг сожрал! Без всякой zfs.

    Возмутительнейшее безобразие.

     
     
  • 4.22, Аноним (22), 22:53, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Только в отличие от зфс, он эту память отдаст при необходимости (и ничего не потеряет особо при этом). В этом и проблема, не скалируется так просто. Кстати хинт: у free есть ключик -h, чтобы сделать читабельно.
     
     
  • 5.27, пох. (?), 23:20, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    в отличие от ваших прохладных былин - zfs спроектирована так, чтобы память, при ... текст свёрнут, показать
     
     
  • 6.44, имя (ok), 06:31, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +3 +/
    > zfs спроектирована так, чтобы память, при необходимости - отдавать. Что ей вполне удается делать - в oracle solaris, ага

    Колись: устроился недавно сторожем в Газпром? Кто ж ещё нынче будет покупать [I]оракловый[/I] солярис, в котором вот-теперь-точно-отдаётся-клянусь-слющай: https://blogs.oracle.com/solaris/changes-to-zfs-arc-memory-allocation-in-113-v

    А если мы говорим про былые, дооракловые времена, то высвобождение это было порой не без приколов: http://web.archive.org/web/20101126163729/http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6522017 Отдельно интересны расписанные там детали про kernel cage: получается, реализовано всё равно через гланды, прям как в этих ZoL/ZoF, разве что пользователю чаще кажется, что ему память возвращают.

     
     
  • 7.65, пох. (?), 12:22, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    July 7, 2015 - это такое вот теперь Причем оно стало актуально, когда понадоб... текст свёрнут, показать
     
     
  • 8.125, Онаним (?), 18:00, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну вот блджад да, в неудачно прибарахлённой сеточке ребята строили храниль для в... текст свёрнут, показать
     
     
  • 9.126, Онаним (?), 18:02, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    В случае хотя бы iSCSI я бы это дело запилил через транзитный роутер и далее с... текст свёрнут, показать
     
     
  • 10.127, Онаним (?), 18:03, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и да, ZFS как таковая тут совершенно не при чём, при чём дятлы, которые повел... текст свёрнут, показать
     
     
  • 11.128, Онаним (?), 18:06, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Перед словом функционал пропущены слова ненужный расфуфыр распиаренный ... текст свёрнут, показать
     
  • 11.138, пох. (?), 18:18, 14/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    ну так они-то, видимо, не собирались никуда мигрировать - у них все работало, пр... текст свёрнут, показать
     
  • 6.56, mumu (ok), 11:23, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Там пару phd защитили на деталях этой самой реализации, а не за вечерок кое-как наляпали.

    Обидно, наверное, было вложить столько сил и времени в то, что в итоге нигде не используется и никому не нужно. Это примерно как в ReactOS контрибьютить: оно вроде и есть, но зачем не понятно.

     
     
  • 7.59, пох. (?), 11:53, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    херассебе неиспользуется Даже оставляя в стороне оракла с его загадочными клиен... текст свёрнут, показать
     
     
  • 8.71, имя (ok), 13:03, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Постгрес однажды чуть не перешёл так в 8 0 на ARC, но чуваки потом нашли US20040... текст свёрнут, показать
     
     
  • 9.74, Онаним (?), 14:36, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Вместо перехода на ARC лучше бы вакуум-фри озаботились, а то очередной танцор с ... текст свёрнут, показать
     
     
  • 10.120, имя (ok), 15:12, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Фанаты MySQL опять забыли о существовании OPTIMIZE TABLE в их любимой СУБД ... текст свёрнут, показать
     
     
  • 11.124, Онаним (?), 17:52, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    И как часто ты им пользуешься InnoDB прекрасно реюзает освободившиеся страницы ... текст свёрнут, показать
     
     
  • 12.131, имя (ok), 18:27, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    8230 путём запуска подчищалок в отдельном треде https dev mysql com doc ref... текст свёрнут, показать
     
     
  • 13.132, Онаним (?), 18:53, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, совершенно не тот же процесс Purge thread подчищает undo логи завершённых... текст свёрнут, показать
     
     
  • 14.133, Онаним (?), 18:55, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    То есть в отличие от вакуума purge thread - это часть механизма ACID А вакуум ... текст свёрнут, показать
     
  • 14.134, имя (ok), 19:04, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Вы опять смешали в одну кучу VACUUM и VACUUM FULL Последний, да, упаковывает, а... текст свёрнут, показать
     
     
  • 15.135, Онаним (?), 09:30, 12/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    И даже SHARE UPDATE EXCLUSIVE блокировку оно не берёт Да ладно Неужели ... текст свёрнут, показать
     
     
  • 16.136, имя (ok), 11:40, 12/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Так надо было сразу уточнять, что вы работаете с наркоманами, ежесекундно испуск... текст свёрнут, показать
     
  • 9.80, пох. (?), 14:59, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    у NetApp есть свой патент И она вполне успешно им воспользовалась - против sun ... текст свёрнут, показать
     
  • 7.73, Онаним (?), 14:35, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ничего обидного. PhD есть, а то, что оно в реальности летает только с прицепленным к жопе пропеллером и на пинковом приводе - уже дело десятое.
     
  • 4.53, Аноним (53), 10:02, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Это у вас ваш Линух жрёт, очевидно же.
     
  • 3.37, xm (ok), 01:43, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > ZFS жрет память как не в себя

    Враньё.

     
     
  • 4.66, пох. (?), 12:28, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >> ZFS жрет память как не в себя
    > Враньё.

    да нет, все правильно - не будет жрать - у нас будет пустая память, которая могла бы служить дисковым кэшэм. Вон, видал как линух-то жрьооот? Из 8 гиг сожрал восемь! То что там не все гладко и если хочется выжать последние килобайты нужно запастись кучей ненужных знаний - на фоне ужаса с lvm поверх dm поверх luks поверх непойми что без системды не работает - как-то особо уже и не пугает.

    (кстати, прикинь, какая у тех чудес эффективность кэширования, если там правая рука не знает, кому др..ит левая)

     
  • 2.4, Аноним (22), 21:03, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Я тут недавно шарился по зфсным реддитам (это там где ребятки увлекаются пулами на зфс) и сделал вывод, что не всё с ней так гладко. Чуть ли не лучший вариант это купить солярис под неё (но тогда придётся отказаться от форка зол и его фишечек).

    >IBM CANONICAL

    Лучше бы бтрфс допиливали, право, эта фрагментация бич опенсорса. Всё зло от жадных корпораций, как мы в очередной раз наблюдаем.

     
     
  • 3.8, rinat85 (?), 21:39, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    что именно не гладко? если по уму, когда память ecc, когда стоит ИБП, когда /boot на отдельном пуле zfs (достаточно большом для вмещения снапшотов, ≈1Гб хотя бы), когда на объеме  RAM не сэкономили $150, когда scrubbing проводят хотя бы пару раз в месяц, когда не юзают raidz1 вообще, и не юзают raidz2  для всего 4 дисков, когда не пытаются в одном пуле держать больше 12 дисков (не для того zfs, чтобы СХД заменить), когда send/receive бэкапы делают, какие проблемы? жалуются только, вот мол что делать, если всё таки рассыпался массив, где инструменты для восстановления, так ребята, нету их, для чего бэкапы то? :)
     
     
  • 4.12, Аноним (22), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Слишком много "если", не? Типичный юзкейс - это "схд" на антресолях или в чулане, я думаю сегодня каждый не против его иметь. Люди берут готовые сборочки под эти задачи, и очень удивляются, когда всё сыпется.
     
     
  • 5.24, zzz (??), 22:57, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Можно и проще: если не заниматься дичью. И часто сыпется FreeNAS, есть репрезентативная выборка или очередное мнение эксперта?
     
     
  • 6.28, пох. (?), 23:22, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    когда (не если, а когда) он лично у тебя посыплется - тебе от "репрезентативной выборки" жарко станет, или холодно?

     
     
  • 7.50, zzz (??), 09:22, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Всё это разговоры в пользу бедных. Если человек взялся говорить про то, что btrfs после допила будет лучше и надежнее zfs, то хотелось бы увидеть основания.
     
     
  • 8.67, пох. (?), 12:38, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    откройте рот Так, закройте Не вижу оснований, мешающих вам говорить ровно обра... текст свёрнут, показать
     
  • 5.55, rinat85 (?), 11:07, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    сказал ведь, "если по уму", 80% перечисленного относится ко всем видам массивов, даже железных
     
  • 4.38, xm (ok), 01:52, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Какой-то набор из мифов и пограничных случаев кривой реализации, по большей части, на Linux.
    Ну да, некоторые баги и проблемы там наблюдаются. Однако, судя по FreeBSD в последний год, источник всех этих проблем это кривой код идущий из ZoL. Если не явно кривой, так уж наверняка ломающий обратную совместимость. И что делать с этим "херак-херак и в продакнш" подходом, столь традиционным для линуксоидов, в нормальных системах не вполне понятно.
     
  • 4.48, SOska (?), 08:50, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Mdadm + lvm на 48 винтов, полет нормальный, памяти жрет мало, не разу не рассыпалось, чяНдр
     
  • 4.75, Онаним (?), 14:40, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Не очень понятно, чем вообще ZFS спасёт от повреждения данных _вне_ дисков - они будут повреждены ещё до расчёта сумм и записи. А на самих дисках и прочих носителях - внезапно - имеются свои ECC. Т.е. весь этот сомнительной надобности вторичный чексумминг и прочие бла-бла-радости спасут разве что от повреждения данных в цепочке шина-контроллер связи с накопителями-шина-контроллер накопителя.
     
     
  • 5.98, rinat85 (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    "на самих дисках и прочих носителях - внезапно - имеются свои ECC" - а с этого момента можно поподробнее? особенно при повреждении уже записанных данных. zfs спасет тем, что воспользуется избыточностью, как бы все raid массивы с ней для этого существуют :) отличие же от mdraid в том, что целостность за счет хэшей обеспечивается сквозная и сканирование с последующим исправлением происходит во много раз быстрее. Ну и пресловутой writehole проблемы нет
     
     
  • 6.105, Онаним (?), 23:53, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > особенно при повреждении уже записанных данных

    Объясни мне, как они случатся, если на каждый блок данных на диске пишется ещё ECC?

    > zfs спасет тем, что воспользуется избыточностью, как бы все

    Это уже raidz, а не просто zfs.

    > целостность за счет хэшей обеспечивается сквозная

    Вот этот вот баззворд уже набил оскомину. Какая целостность? Чего целостность? Сквозная, навылет?
    Данные когда с диска или флеша читаются - сверяются с ECC самим носителем. Если проверка не прошла - возвращается ошибка чтения, и никакие хеши тут уже не спасут, блок потерян.

     
     
  • 7.121, имя (ok), 16:01, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    ECC не покрывает всех возможных ошибок сколько их там на сектор максимум , о... текст свёрнут, показать
     
     
  • 8.122, Онаним (?), 17:37, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Merkle tree - сначала бы хоть разобрались, для чего он там, потом писали ECC на... текст свёрнут, показать
     
     
  • 9.129, имя (ok), 18:13, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    А так ли велика цена вопроса на фоне стоимости тех же дисков и контроллеров с по... текст свёрнут, показать
     
     
  • 10.130, Онаним (?), 18:24, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну надо понимать, что это для весьма специфичных мест, где стандартной защиты ка... текст свёрнут, показать
     
  • 5.119, Аноним (119), 15:11, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    ZFS должна еще конролировать что там и как для записи в файл подготавливают стор... текст свёрнут, показать
     
     
  • 6.123, Онаним (?), 17:47, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > ZFS должна еще конролировать что там и как для записи в файл
    > подготавливают сторонние левые программы, не испортили ли они свои данные, неумёхи?

    Ты слышал звон, но не понял где он. Объясняю: лежит кусок данных на запись в памяти. Приложение может быть ещё пошлёт их на запись, может быть уже сформировало запрос, и он начал обрабатываться по дисковому стеку. И тут происходит битфлип. В этом самом куске. ZFS благополучно посчитает суммы от этого битфлипа, разнесёт их "максимально далеко друг от друга", и запишет на диск. Уже повреждёнными :D И ещё отреплицирует.

    Передача данных "до винта" защищена минимум CRC32 - в случае SATA. Это старый алгоритм, увы, но от единичных битфлипов он защищает, т.е. твоё "один битик изменится" - случай невозможный.

     
  • 3.17, пох. (?), 22:38, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    только его тебе никто не продаст вот в чем беда Даже если бы и продали - где т... текст свёрнут, показать
     
     
  • 4.25, Аноним (22), 23:00, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    С оракловой проблемы у людей возникали только при миграции на опенсорсную версию -- в ней совместимость только с очень древней зфс.

    >будет та, которую тебе осилит собрать орацл

    Так вроде с этим там проблем нет? В принципе, линуксовая самба вообще никуда не годится, если уж на то пошло.

    >зфс
    >комьюнити

     
     
  • 5.29, пох. (?), 23:42, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    во времена, когда оракловая еще была сановской - проблемы возникали Лечились, б... текст свёрнут, показать
     
  • 5.47, hhhg (?), 08:18, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Кто тебе расскажет о проблемах если этим никто не пользовался и теперь уже точно не будет? В лохматые года полтора компа и сисадмина были, интернета напротив не было, а теперь каждый себе сисадмин и зфс дома держит и воняет на форумах.
    Если тихо - это не значит что все хорошо.
     
  • 4.41, Gannet (ok), 04:05, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    А ты значит провёл аудит кода Btrfs?
     
  • 3.35, zzz (??), 00:26, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    btrfs в принципе не допиливаема, поскольку изначально криво спроектирована. Балансировка сверху-вниз неповоротлива на больших деревьях, хоть сколько там процессов балансировки пускай. Она хранит блоки переменного размера прямо в деревьях, из-за чего на куче мелких файлов пожирает огромное количество места под метаданные - на разделе с исходниками может свободно пожирать половину объема. Сбой по питанию во время балансировки может окончиться смертью ФС.

    По сути, её пропихнули в обход всех правил, лишь из-за того, что настоял Oracle. Никаких других причин пихать это поделие в основную ветку нет и не было.

     
     
  • 4.42, Gannet (ok), 04:06, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Оналитег нариловался.
     
  • 4.60, Fracta1L (ok), 11:54, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    Нубяра с протухшими методичками детектед
     
  • 2.9, ff (??), 21:45, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    У всех перечисленных есть свои + и -, хотя про стратис этот я ничего не понял, но подобные велосипеды поверх обычных фс и без него есть. Это линуксвей кстати =)
     
     
  • 3.19, пох. (?), 22:43, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > хотя про стратис этот я ничего не понял

    чего тебе непонятного - хрустоподелка, собирается исключительно хрустокомпилятором позавчерашней сборки. Ничего не умеет, включая то, что давно умеют нижележащие слои (уж что-что, а хотя бы 2x redundancy lvm умел еще полтора десятка лет назад - а эти даже и того ниасилили), просто очередное средство для мышевозюкалок, прячущее редхатовское нагромождение адских уродов - до первой поломки, разумеется.
    Кто уже пытался загрузить в single user редхатосистему с thin lvm - тот меня поймет. А чинить там уже и нечего будет, в случае чего. Получишь хорошо перемешанную кашу байтиков, размазанную ровным слоем по всем дискам. При желании - еще и зашифрованную.

    write only storage system. (c) redhatbm

     
     
  • 4.103, Roman (??), 17:44, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Вангую что это такой storage spaces из мира линукса от RH ( сам эти storage spaces руками не трогал впрочем)
     
     
  • 5.104, пох. (?), 18:43, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    storage spaces у нас называются lvm, и существовали за много-много лет до их пер... текст свёрнут, показать
     
  • 2.13, пох. (?), 22:26, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    конечно, это ж орацл вам сломал использование модулями aes-инструкций процессора... текст свёрнут, показать
     
     
  • 3.16, ilyafedin (ok), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    >[оверквотинг удален]
    > Орацл, проклятый, во всем виноват, конечно же ж.
    > А совсем не отсутствие сановского менеджера с палкой над горбом разработчиков, из-за
    > которого вся разработка выродилась в последовательное ухудшение и доламывание хорошей
    > системы, оставленной без присмотра.
    > Он, кстати, вам еще и в шта..в btrfs нас...л, потому что это
    > разработка, долгое время чуть ли не в одно жало делавшаяся сотрудником
    > оракла в рабочее время.
    > При этом те кто хотели - вполне себе zfs пользуются. Той, увы,
    > которую мы все заслуживаем, а не той, которую по прежнему пилит
    > себе оракл, но при закрытых дверях.

    Так и знал, что не пройдешь мимо и рассыпешься в большой поток сознания ❤️

     
  • 3.43, имя (ok), 05:29, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > это ж орацл вам сломал использование модулями aes-инструкций процессора

    Ого, а Грег КХ в курсе, что он работает теперь на Эллисона?

     
  • 2.15, Olololo (?), 22:34, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Btrfs не стала стабильной только в одной конфигурации. И то даже в этой конфигурации она или уже стабильна или в самое ближайшее время её пометят стабильной в следующем релизе.
     
     
  • 3.18, Olololo (?), 22:43, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    В raid-6 оно не стабильно, но обещают в следующем релизе исправить.
     
     
  • 4.33, хомяк (?), 00:13, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +4 +/
    «не стабльно» недостаточно точно описывает ситуацию «гарантировано разрушает пул при отключении или аварийном завершении процесса на протяжении некоего фрагмента цикла записи».
    И не только raid6, но и raid5.
     
  • 2.36, анонимно (?), 00:39, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый API ну разве это не шикарно!
     
     
  • 3.40, ilyafedin (ok), 02:51, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > D-BUS одна из прекраснейших технологий 21 века. Очень годная вещь сосредоточившись на
    > управлении через неё можно забыть о фрагментации дистрибутивов и подходов. Единый
    > API ну разве это не шикарно!

    Одна и прекраснейших технологий, которая... тормозит как не в себя. Нет, не шикарно, API не должно требовать демона. Они сделали го*но и только додумались, что никакой демон не нужен, а достаточно лишь либы, которая реализует API (Varlink).

     
  • 2.46, iCat (ok), 07:28, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >Требую немедленно сделать ZFS истинно-GPL'овой, встроить в ядро и принять во все дистрибутивы по дефолту.

    А смысл?
    Разные задачи - разные инструменты.
    Поиски единственной FS на все случаи жизни - занятие столь же безсмысленное, как поиски "универсальной операционной системы".

     
     
  • 3.81, пох. (?), 15:13, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    ну вообще-то весь смысл этого cpaтиса, прости Г-ди - это как раз заменить возмож... текст свёрнут, показать
     
  • 2.58, Fracta1L (ok), 11:53, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > элегантную ZFS

    В голосину

     
  • 2.72, Онаним (?), 14:33, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    ZFS элегантна примерно настолько же, насколько эленгантен ожиревший танцор балета весом 200кг с протезом вместо одной ноги, который к тому же вдвое длиннее оставшейся целой.
     

  • 1.2, Аноним (3), 21:01, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Есть истории успеха в восстановление рейда на уровне LVM?
    mdraid при флапе нескольких линков восстанавливается с полпинка.
    Аппаратный чуть сложнее.
    lvcreate --type raid5 при тестах восстановить не удалось.
     
     
  • 2.7, Аноним (7), 21:33, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А что такое флап линков?
     
     
  • 3.54, Аноним (54), 11:00, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    например вот такое Aug 18 06 32 19 server kernel ata6 00 exception Emask 0x50... текст свёрнут, показать
     
     
  • 4.76, Онаним (?), 14:42, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Простите, но рейд и должен разваливаться при таком поведении. Флап линка - повод выбросить носитель из рейда до ручного вмешательства.
     
     
  • 5.77, Онаним (?), 14:44, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Интересно то, что md похоже по умолчанию этого не делает... и тем более - не запоминает состояния на момент отвала. Битмап-то включен, надеюсь? Если нет, ССЗБ.
     
     
  • 6.82, пох. (?), 15:15, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    делает dev md0 Version 1 2 Creation Time Tue Sep 3 14 22... текст свёрнут, показать
     
     
  • 7.87, Онаним (?), 16:13, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну вот у писателя выше, судя по написанному, этого не произошло. Что он там выкрутил и где - мне неведомо.
     
     
  • 8.96, пох. (?), 17:06, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    видимо, не успело - традиционная беда линукса с несвязанными как следует между с... текст свёрнут, показать
     
     
  • 9.106, Онаним (?), 23:55, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    multipathd настроен на пропагацию ошибок вверх по стеку вместо повторов ... текст свёрнут, показать
     
     
  • 10.107, Онаним (?), 23:56, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Или md при сборке массива нашёл суперблок не на multipath-устройстве, а на как р... текст свёрнут, показать
     
  • 6.109, Аноним (109), 08:11, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    bitmap включен, возможно поэтому диск и не вылетел из массива (но проверять с отключеным не хочу).
     
  • 2.11, ананим.orig (?), 21:56, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    на данный момент (а это уже лет 10) lvm - это всего-лишь комбинация тех или иных преднастроенных вызовов к dm.
    фактически как сабж, но без дбаса и с рэйдом.
     
     
  • 3.34, хомяк (?), 00:15, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    однако инструментов для аварийного ковыряния в пуле не имеет. А инструменты от dm-* не подходят, потому что это хоть и dm* глубоко в душе — но снаружи всё же не dm*.
     
     
  • 4.61, Аноним (54), 12:10, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    эм... а какие инструменты вам нужны? и какие есть у zfs?
    lvm/mdadm/cryptsetup - это обертки над dmsetup, но вам никто не мешает в существующий lvm лезть руками при помощи dm-утилит (на свой страх и риск разумеется).
    из моей практики, у меня были проблемы с lvm, но мне его родных утилит хватило для восстановления.
    поделитесь своим опытом, когда lvm-утилиты не справились?
     
  • 2.31, Аноним (31), 00:05, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > нескольких линков

    если вы несколько дисков отключили от raid 5 то восстановить его будет нельзя.

     
     
  • 3.62, Аноним (54), 12:10, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    флап != отключение.
     
     
  • 4.88, Онаним (?), 16:14, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > флап != отключение.

    При нормальной работе нормальной системы флап должен == отключению, за исключением единственного случая - когда от отключения до подключения не было записи, да и то нежелательно назад подключать. В противном случае последствия непредсказуемы.

     
     
  • 5.110, Аноним (109), 08:18, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    это в идеале а еще raid1 на чтение должен читать с обоих дисков и в случае несо... текст свёрнут, показать
     
     
  • 6.112, Онаним (?), 10:40, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    По факту аппаратные рейд делают так же, а для сверки данных и обнаружения дохлых блоков есть скраббинг. В mdadm он тоже настраивается, кстати.
     
     
  • 7.113, Онаним (?), 10:40, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    // рейды
    // в md
    (по ночам надо спать...)
     
  • 3.111, Аноним (109), 08:57, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    нет, почему же? могу говорить только за mdadm, но отключение двух и более дисков из raid5 (на горячую) не убивают массив безвозвратно: доступ к данным массива теряется (io error на read/write), по /proc/mdstat видно что несколько дисков отсутствуют, перезапуск массива (mdadm --stop/mdadm --assemble --scan) результата не дает - массив все так же игнорирует отключеные диски (даже если они уже в системе), но mdadm --assemble --force - проблему решает, mdadm забивает на разные timestamp'ы у дисков одного массива и собирает их - массив можно дальше использовать. естественно данные, которые записывались в момент сбоя могут быть неполные, но все данные при этом не теряются.
     
  • 2.79, Онаним (?), 14:47, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > mdraid при флапе нескольких линков восстанавливается с полпинка

    RAID5? При флапе нескольких линков? Я очень сомневаюсь, что на том, что там восстановилось, данные будут корректны - при условии, что в момент отвала шла какая-то запись, естественно. Вылет двух дисков в RAID5 - это фатал.

     
     
  • 3.85, пох. (?), 15:26, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    ну так ты продожай тут постить fud про zfs, не владея темой от слова нихрена.

    У которой флап (а не тотальный отказ) любого количества дисков в raidz1 - ведет всего лишь к потере последней не синхронной операции записи и необходимости ручного переподключения.
    Вот такие вот чудеса, с 2004го года.

    А у тебя сразу п-ц и фатал, и непонятно, какие данные испортились, и как их отличить, но ты продолжай рассказывать какая плохая zfs, как не нужны чексуммы, и как все хорошо и замечательно у л@п4@тых в их поделках.

    P.S. поздравляю Максима с новой победой г0вноробота над людьми. А на новость про lizard времени так и не нашлось.

    P.P.S. mdadm таки переживет флап и с raid5, но гарантии что потом хваленый xfs восстановится родными утилитами нет никакой, разумеется.

     
     
  • 4.86, Онаним (?), 16:11, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    raidz1
    raid5
    FUD
    ... слов нет ... речь не про дублирующий рейд, да и там флап двух дисков (если дублей 1 штуко) - фатал

    А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод выкинуть диск до ручного вмешательства.

     
     
  • 5.92, пох. (?), 16:50, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > raidz1
    > raid5
    > FUD
    > ... слов нет ... речь не про дублирующий рейд, да и там

    Наш всезнайка еще и не в курсе что такое raidz. Это не "дублирующий рейд", так, на минуточку. mirror у zfs называется, внезапно, mirror.
    Но мнение при этом про zfs - он имеет, ага.

    > флап двух дисков (если дублей 1 штуко) - фатал

    нет. Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных от этого не должны мгновенно аннигилироваться.

    > А вообще в любом нормальном отказоустойчивом хранилище флап диска - это повод
    > выкинуть диск до ручного вмешательства.

    именно так и происходит. Но одно дело, когда ручное вмешательство - просто вручную выдать команду attach или перезагрузиться в надежде на автоматику, а потом проверить консистентность дисков, совсем другое - когда ты сидишь перед рухнувшим dm, и не знаешь, как его теперь собрать обратно, а stackoverflow недоступен из-за аварии у оператора.

     
     
  • 6.94, Онаним (?), 17:00, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Флап в нормально спроектированных системах - просто флап. Моргнуло, терабайты данных

    Ну давай, расскажи мне про нормально спроектированные системы, где так происходит. Желательно с названиями.
    Терабайты данных от этого никуда не деваются, диск вылетает, остальные работают. Если есть резерв - начинается копирование на резерв.

    > рухнувшим dm

    Так не надо его заставлять работать с выпавшим диском после флапа, и он никуда не денется. Да и md назад собрать - не бог весть какая затея, достаточно man с машины не удалять. Стэковерфловы - удел девляпсов.


     
     
  • 7.99, пох. (?), 17:08, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > он никуда не денется. Да и md назад собрать - не бог весть какая затея

    md - да. А как насчет dm-raid?
    (по понятным причинам, первый использовать, к сожалению, не стоит)


     
     
  • 8.100, Онаним (?), 17:14, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    В смысле первый не стоит Как раз таки второй aka fakeraid использовать не стои... текст свёрнут, показать
     
  • 8.101, Онаним (?), 17:16, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Ну и грань между ними так себе, в общем случае dmraid банально надстройка над md... текст свёрнут, показать
     
  • 6.97, Онаним (?), 17:07, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно.
     
     
  • 7.102, пох. (?), 17:21, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Чтобы иметь мнение насчёт несъедобности говна, пробовать его на вкус вовсе не обязательно.

    чтобы это мнение имело ценность - надо иметь либо обоняние, либо хотя бы зрение.
    А ты, увы, судя по невладению даже базовой терминологией - слышал в перепеве Рабиновича непонятно что и о чем.

     

  • 1.5, SOska (?), 21:09, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    И чем эта смузирастахрень лучше lvm?
     
     
  • 2.10, ананим.orig (?), 21:51, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +3 +/
    ничем.
    это фронтэнд.
     
     
  • 3.21, пох. (?), 22:47, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    который не умеет даже mirror

     
  • 2.20, Аноним (20), 22:47, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Так написано же:
    Проект изначально преподносится как не требующий для администрирования квалификации эксперта по системам хранения.

    Пора редхету начать выпускать домашние аэс, не требующие квалификации эксперта.

     
     
  • 3.49, SOska (?), 08:54, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Чес слово для mdadm и lvm не надо быть гением
     
     
  • 4.63, Аноним (54), 12:11, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.
     
     
  • 5.68, пох. (?), 12:44, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.

    ты правда думаешь что dbus-поделка что-то умеет - исправлять?

    Ну и про создание - пожалуйста, список команд для ручного создания xfs over thin-lvm (потому что мы, наверное, все же хотим lightweight-снапшоты) в студию, не подглядывая в стековерфлоу.
    шит-криптографию и redundancy, чорт с ними, пока пропустим.


     
  • 5.114, Онаним (?), 10:45, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > при создании нет, но при нештатных ситуациях, нужно уметь их исправлять.

    При нештатных ситуациях подобные управлялоподелки разваливаются первыми.

     
  • 2.26, Аноним (26), 23:14, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Я читал их документацию. Они собирают из кучи подсистем ядра (dmcrypt llvm xfs and friends) 5 слоев абстракции и управляют этим всем через ОДНУ утилиту в юзерспейсе. На выходе должна получится та же ZFS, только построенная на старом надежном функционале встроенном в ядро линукс.
    Вот только ZFS-фичи начнутся с версии 3.0.
    А еще, мне очень интересно, что случится с пулом если этот демон "внезапно" умрет (скажем от ommkiller-a), а система продолжит работать...  а потом, как произойдет перемещение пары тройки терабайт пропадет питание.
    Хорошо что у меня есть бекапы.
     
     
  • 3.32, Аноним (31), 00:11, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > 5 слоев абстракции

    Ещё интересно как это всё будет работать при обновлении ядра или утилит, с учётом "stable api nonsense". Если конечно у них вообще есть планы развивать это, а не делать эксклюзивно для redhatibm.

     
     
  • 4.93, пох. (?), 16:54, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    >> 5 слоев абстракции
    > Ещё интересно как это всё будет работать при обновлении ядра или утилит,
    > с учётом "stable api nonsense". Если конечно у них вообще есть

    ну типа, чем дальше ты от "nonsense", тем безопаснее. То есть обновления ядра не затронут это чудо совсем, а при обновлении dbus скорее всего отвалится управление, но не развалится fs.

    А если ты так обновился, что в /sbin/lvm код несовместим с dm-*.ko - это, вероятно, либо очень кривой дистрибутив, либо нефиг лезть руками в сложные системы без понимания что и от чего тут зависит.

    Это тебе не "мы тут в новой версии запретили aes", и модуль не грузится и не компилируется.

     

  • 1.23, IdeaFix (ok), 22:55, 07/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    т.е. refs таки всех победил?
     
     
  • 2.30, пох. (?), 23:44, 07/11/2019 [^] [^^] [^^^] [ответить]  
  • –2 +/
    лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще более сомнительными чем перспективы йежа.

     
     
  • 3.117, IdeaFix (ok), 12:46, 10/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > лежа в гробу? Вряд ли... что-то перспективы ms'овских стораджей сегодня выглядят еще
    > более сомнительными чем перспективы йежа.

    Вы не поверите, но и МСовских гипервизоров и МСовской гиперконвергенции несколько больше, чем всяких проксмоксов и пр. вместе взятых...

     
     
  • 4.118, пох. (?), 07:28, 11/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    не поверю. Где они, блжат? У MS в ажурном облачке?

    Проксмоксу видел, от наколенных поделок в конторе на пятнадцать страдальцев (с затолканым туда же фринасом, ховнклаудом и фрипое6иксой, как тут кто-то гордился) до довольно больших (где реально ссыкотно как оно все еще вообще не навернулось)

    Впопенштифт, с ceph и вот этой всей херней, настроенный методом next-next-next без малейшего понимания чем чревато - каждый день вижу, с..ные аутсорсеры.

    Про кластеры из г-на и палок (в смысле гластеров/прочих хреньфс) - ну живьем не видел, кроме собственных экспериментов, но слышал и читал - дохрена. У кого-то даже и работает, пока еще.

    Даже вмварьскую vsan видел (да, п-ц, непонятно ни зачем, ни как они вообще еще живут - но есть).

    Винду - не, не видел. При том что винда - везде, а вот эти линуксоподелки из дерьма и палок - очень местами и временами, и я еще и сознательно держусь от них как можно дальше, чтоб чинить не припахали.
    У всех в этом "везде" почему-то обычные san-стораджи, иногда в обертке какой-нибудь виртуализации, иногда просто так.

    То есть вот если для линукса еще десять лет назад было _общим_ решением - "ставимся на машину с двумя дисками - включаем lvm с --mirrors 2, если железным рейдом обделили", то увидеть винду с включенным storage space (что можно было до недавнего времени в любой десяточке любому васяну) - ни разу. Васяны не в курсе, а остальным, видимо, не надо.

     
     
  • 5.137, IdeaFix (ok), 22:51, 13/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Практически все крупные ВУЗы, некоторые "типы" крупных госконтор и пр. оченно аквтивно используют гиперв. Просто гиперконвергенция от МС получается куда дешевле и понятнее гиперконвергенции от DELL-EMC даже на том же самом железе. И если дедупликацию от EMC мало кто на поде юзал, то тут есть шанс...

    Сам удивился как много в мире этого добра. Как много аутлук веб аппа и соответственно известного почтовика, как много ИИСа на проде наружу. Работает как-то. А азура нет... там другое.

     

  • 1.39, Аноним (39), 02:17, 08/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Как там насчёт интеграции с systemd?
     
     
  • 2.51, Аноним (53), 09:51, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    systemd-stratisd
     
  • 2.69, пох. (?), 12:46, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Как там насчёт интеграции с systemd?

    без него ты даже не подключишь thin-раздел. Такие вот пирожки с крысятами :-(

    P.S. буду рад увидеть инструкцию, опровергающую это утверждение. Чур - лично проверенную.

     

  • 1.45, Аноим (?), 06:59, 08/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    > Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus

    Вот это кстати, очень показательно: разрабы D-Bus занимаются "перестановкой кроватей" а все, чей софт от этого дибаса зависит, вынуждены эту имитацию деятельности отслеживать и переделывать свои проги.

    PS: Поигрался с этим стратисом: простой, удобный, ненужный. Как-то так)

     
     
  • 2.52, Аноним (53), 09:54, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +3 +/
    >разрабы D-Bus занимаются "перестановкой кроватей"

    Или удовлетворением требований не использовать оскорбляющие чьи-то чувства имена.

     

  • 1.57, mumu (ok), 11:27, 08/11/2019 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    > Значительное изменение номера версии связано с переименованием некоторых интерфейсов D-Bus и переработкой организации работы с D-Bus

    Обновил дебас - развалился кластерный рейд. Энтерпрайзненько так.

     
     
  • 2.64, Аноним (54), 12:14, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    ну, пользователям mdadm/lvm этого не понять.
     
     
  • 3.70, пох. (?), 12:47, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > ну, пользователям mdadm/lvm этого не понять.

    ну да, невостановимый отвал стораджа при смене hostname (внезапно, фича начиная с rhel7) - это ж мелочи жизни.

     
     
  • 4.78, Онаним (?), 14:46, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > невостановимый отвал стораджа при смене hostname

    Щито, простите?

    Или вы смогли так кластерный сторейдж завалить? Если да - я вас поздравляю, к кластерам вас лучше не подпускать.

     
     
  • 5.84, пох. (?), 15:21, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    >> невостановимый отвал стораджа при смене hostname
    > Щито, простите

    научись пользоваться гуглем, неумешка.

    А то можешь оказаться в один непрекрасный день в очень неприятной позе, вместо любимой позы всезнайки.

     
     
  • 6.89, Онаним (?), 16:15, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет, и прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось.
     
     
  • 7.90, Онаним (?), 16:17, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Если ребята на кластерах додумались хостнеймы менять бездумно и всё завалить - это вообще непонимание базы, неумение читать доки, ССЗБ и ЛПП, а не проблема RHEL.
     
     
  • 8.108, J3 (?), 08:04, 09/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Hostname не должен влиять на что-то отличное от сетевых настроек служб и т п Е... текст свёрнут, показать
     
  • 7.91, пох. (?), 16:44, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    > Тьфу-тьфу, я с 5-6-7-8 и разнотипными сторейджами работаю уже много лет,

    next-next-next нажимаешь?
    Ну, ок.

    > прекрасно знаю, где соломку подстелить, чтобы оно не рассыпАлось.

    непохоже.
    Больше похоже что пока - проносило.

    P.S. что характерно - пользоваться поисковиком пациент не умеет.

     
     
  • 8.95, Онаним (?), 17:01, 08/11/2019 [^] [^^] [^^^] [ответить]  
  • +/
    Да, в голой консоли пишу next, и после пальцем на несенсорный экран там, где нап... текст свёрнут, показать
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    Слёрм
    Inferno Solutions
    Hosting by Ihor
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2019 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру