<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Выбор решения для организации сетевого raid5 для кластера</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html</link>
    <description>Добрый день!&lt;br&gt;&lt;br&gt;есть потребность организовать дешёвую, но мало-мальски надёжную файловую помойку (CIFS).&lt;br&gt;&lt;br&gt;Аппаратная часть:&lt;br&gt;бэкэнд - 4 сервера, каждый по 1 Тб в raid5 на борту (предназначение - экспортирование дисковой подсистемы фронтэнду)&lt;br&gt;фронтэнд - 2 сервера (предназначены для балансировки нагрузки и отказоуст)&lt;br&gt;&lt;br&gt;Защищаемся от:&lt;br&gt;1) выхода из строя hdd (здесь в качестве защиты - raid5 на бэкэндах)&lt;br&gt;2) выхода из строя одного сервера бэкэнда&lt;br&gt;3) выхода из строя одного из серверов фронтэнда&lt;br&gt;&lt;br&gt;Как я вижу это:&lt;br&gt;Каждый из 4х серверов бэкэнда отдаёт свой 1Тб по протоколу iscsi каждому из 2х серверов фронтэнда.&lt;br&gt;Далее - на фронтэндах эти 4 диска объединяются в подобие сетевого raid5 и поверх них создаётся кластерная файловая система.&lt;br&gt;Далее поднимается LVS(?) или samba ctdb(?) для предоставления параллельного доступа через оба сервера фронтэнда к дисковой ёмкости.&lt;br&gt;&lt;br&gt;Программная часть:&lt;br&gt;в качестве ОС везде используется CentOS 5.5&lt;br&gt;диски с серверов бэкэнда экспортируются tgtd по протоколу iscsi.&lt;br&gt;С помощью isc</description>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (universite)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#14</link>
    <pubDate>Sat, 06 Nov 2010 08:38:32 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt; бэкэнд - 4 сервера, каждый по 1 Тб в raid5 на борту&lt;br&gt;&amp;gt; (предназначение - экспортирование дисковой подсистемы фронтэнду)&lt;br&gt;&amp;gt; фронтэнд - 2 сервера (предназначены для балансировки нагрузки и отказоуст)&lt;br&gt;&amp;gt; Защищаемся от:&lt;br&gt;&amp;gt; 1) выхода из строя hdd (здесь в качестве защиты - raid5 на&lt;br&gt;&amp;gt; бэкэндах)&lt;br&gt;&amp;gt; 2) выхода из строя одного сервера бэкэнда&lt;br&gt;&amp;gt; 3) выхода из строя одного из серверов фронтэнда&lt;br&gt;&amp;gt; Выше пока не поднимаюсь, поскольку от решения этого вопроса наверное будет зависеть&lt;br&gt;&amp;gt; и выбор дальнейших решений.&lt;br&gt;&lt;br&gt;И получаем тормоза при интенсивных дисковых операциях&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (kiipish)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#13</link>
    <pubDate>Fri, 05 Nov 2010 16:43:44 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&amp;gt;&amp;gt; разработки&lt;br&gt;&amp;gt;&amp;gt; как выяснилось glusterfs не умеет объединять сетевые диски в raid5, а только&lt;br&gt;&amp;gt;&amp;gt; mirror, stripe&lt;br&gt;&amp;gt; На сколько я помню там указывается сколько копий файла хранить по разным&lt;br&gt;&amp;gt; нодам, при указании 2 копий выход любой ноды не страшен и&lt;br&gt;&amp;gt; на производительность не влияет в отличие от RAID5. Файлы по нодам&lt;br&gt;&amp;gt; хранятся в виде файлов на локальной ФС ноды и даже когда&lt;br&gt;&amp;gt; совсем будет плохо часть файлов останется в целости на живых нодах.&lt;br&gt;&amp;gt; Еще вроде ещё clvm (пакет кажется зовётся lvm2-cluster) кластерный вариант lvm можете&lt;br&gt;&amp;gt; с её помощью попытаться сделать свой сетевой RAID5.&lt;br&gt;&lt;br&gt;lvm2-cluster - это просто кластерный lvm, который позволяет управлять данными LVM нескольким нодам, raid5 тут не причём.&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (ze6ra)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#12</link>
    <pubDate>Wed, 03 Nov 2010 08:39:37 GMT</pubDate>
    <description>&amp;gt;&amp;gt; gfs не умеет, и вроде не для этого.&lt;br&gt;&amp;gt;&amp;gt; glusterfs умеет и вроде даже неплохо работает.&lt;br&gt;&amp;gt;&amp;gt; drbd - ориентирована на два диска.&lt;br&gt;&amp;gt;&amp;gt; ceph - поидее должен быть быстрее glusterfs, но пока ещё в стадии&lt;br&gt;&amp;gt;&amp;gt; разработки&lt;br&gt;&amp;gt; как выяснилось glusterfs не умеет объединять сетевые диски в raid5, а только&lt;br&gt;&amp;gt; mirror, stripe&lt;br&gt;&lt;br&gt;На сколько я помню там указывается сколько копий файла хранить по разным нодам, при указании 2 копий выход любой ноды не страшен и на производительность не влияет в отличие от RAID5. Файлы по нодам хранятся в виде файлов на локальной ФС ноды и даже когда совсем будет плохо часть файлов останется в целости на живых нодах.&lt;br&gt;&lt;br&gt;Еще вроде ещё clvm (пакет кажется зовётся lvm2-cluster) кластерный вариант lvm можете с её помощью попытаться сделать свой сетевой RAID5. &lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (sdog)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#11</link>
    <pubDate>Wed, 03 Nov 2010 06:46:59 GMT</pubDate>
    <description>&amp;gt; я так понимаю цитата была отсюда?&lt;br&gt;&amp;gt; http://sourceware.org/cluster/wiki/FAQ/GFS#gfs_raid&lt;br&gt;&amp;gt; вроде там идёт речь только про GFS, а не GFS2&lt;br&gt;&lt;br&gt;думаю, если бы для GFS2 было иначе, то это было бы упомянуто отдельно, ну и в любом случае MD-то останется не кластерным. Цена девяток высокой доступности растёт по экспоненте, с каждой девяткой :) &lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (w)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#10</link>
    <pubDate>Wed, 03 Nov 2010 04:34:13 GMT</pubDate>
    <description>&amp;gt; gfs не умеет, и вроде не для этого.&lt;br&gt;&amp;gt; glusterfs умеет и вроде даже неплохо работает.&lt;br&gt;&amp;gt; drbd - ориентирована на два диска.&lt;br&gt;&amp;gt; ceph - поидее должен быть быстрее glusterfs, но пока ещё в стадии&lt;br&gt;&amp;gt; разработки&lt;br&gt;&lt;br&gt;как выяснилось glusterfs не умеет объединять сетевые диски в raid5, а только mirror, stripe&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (w)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#9</link>
    <pubDate>Wed, 03 Nov 2010 04:21:49 GMT</pubDate>
    <description>&amp;gt; Note that GFS won&apos;t work properly in a cluster with software RAID&lt;br&gt;&amp;gt; (the MD driver). At the time of this writing, software RAID&lt;br&gt;&amp;gt; is not cluster-aware. Since software RAID can only be running on&lt;br&gt;&amp;gt; one node in the cluster, the other nodes will not be&lt;br&gt;&amp;gt; able to see the data properly, or will likely destroy each&lt;br&gt;&amp;gt; other&apos;s data. However, if GFS is used as a stand-alone file&lt;br&gt;&amp;gt; system on a single-node, software RAID should be okay.&lt;br&gt;&amp;gt; получается одна активная нода с raid5 или drbd&lt;br&gt;&lt;br&gt;я так понимаю цитата была отсюда?&lt;br&gt;http://sourceware.org/cluster/wiki/FAQ/GFS#gfs_raid&lt;br&gt;&lt;br&gt;вроде там идёт речь только про GFS, а не GFS2&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (ze6ra)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#8</link>
    <pubDate>Tue, 02 Nov 2010 18:01:16 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&amp;gt; том что такое кластерная ФС и как реализовать всё на базе&lt;br&gt;&amp;gt;&amp;gt; их ПО, сначала ознакомьтесь, а потом кидайтесь делать.&lt;br&gt;&amp;gt; не беспокойтесь, прочитал и не раз :)&lt;br&gt;&amp;gt; дело в том, что GFS2 в документации redhat везде работает на общем&lt;br&gt;&amp;gt; сторадже (NAS, SAN и т.д.), а в моём случае надо его&lt;br&gt;&amp;gt; ещё собрать этот сторадж (!), поверх которого уже будет работать кластерная&lt;br&gt;&amp;gt; файловая система. Вот если вы мне рассскажете как gfs2 умеет сама&lt;br&gt;&amp;gt; размазываться по нескольким iscsi дискам, то другое дело :)&lt;br&gt;&amp;gt; я кстати уже самостоятельно наткнулся на glusterfs, она вроде как умеет так&lt;br&gt;&amp;gt; делать.&lt;br&gt;&lt;br&gt;gfs не умеет, и вроде не для этого.&lt;br&gt;glusterfs умеет и вроде даже неплохо работает.&lt;br&gt;drbd - ориентирована на два диска.&lt;br&gt;ceph - поидее должен быть быстрее glusterfs, но пока ещё в стадии разработки&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (sdog)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#7</link>
    <pubDate>Tue, 02 Nov 2010 13:53:00 GMT</pubDate>
    <description>Note that GFS won&apos;t work properly in a cluster with software RAID (the MD driver). At the time of this writing, software RAID is not cluster-aware. Since software RAID can only be running on one node in the cluster, the other nodes will not be able to see the data properly, or will likely destroy each other&apos;s data. However, if GFS is used as a stand-alone file system on a single-node, software RAID should be okay. &lt;br&gt;&lt;br&gt;получается одна активная нода с raid5 или drbd&lt;br&gt;</description>
</item>

<item>
    <title>Выбор решения для организации сетевого raid5 для кластера (w)</title>
    <link>https://www.opennet.ru/openforum/vsluhforumID1/90187.html#6</link>
    <pubDate>Tue, 02 Nov 2010 12:11:24 GMT</pubDate>
    <description>&amp;gt;&amp;gt;&amp;gt; drbd + gfs2&lt;br&gt;&amp;gt;&amp;gt; спасибо за совет, но&lt;br&gt;&amp;gt;&amp;gt; я смотрел drbd - но как я понял, он умеет только raid1,&lt;br&gt;&amp;gt;&amp;gt; а это слишком накладно в моём случае. хотелось бы raid5&lt;br&gt;&amp;gt; md raid5 из iscsi multipath девайсов :) наверное такое имеет право быть,&lt;br&gt;&amp;gt; если реализуете, напишите как работает, интересное решение.&lt;br&gt;&lt;br&gt;вот md raid5 как раз не подходит - это первое что я попробовал.&lt;br&gt;&lt;br&gt;поясню:&lt;br&gt;&lt;br&gt;на первой ноде фронтэнда я собираю raid5 командой &lt;br&gt;&lt;br&gt;mdadm --create /dev/md0 --chunk=64 --level=5 --raid-devices=4 /dev/mapper/mpath&#091;1234&#093;&lt;br&gt;&lt;br&gt;после чего создаётся /dev/md0 и прекрасно работает.&lt;br&gt;&lt;br&gt;переходим на вторую ноду фронтэнда и включаем созданный массив там&lt;br&gt;&lt;br&gt;mdadm -Av /dev/md0 --uuid=d90f76b2:db1b70ac:225354f4:6db256c5&lt;br&gt;&lt;br&gt;и вот тут уже происходит облом - mdadm говорит, что все устройства используются.&lt;br&gt;&lt;br&gt;если поразмыслить - это логично, процесс md на каждой ноде фронтэнда &quot;думает&quot; что использует ресурсы монопольно, а это не есть гуд в кластере :)&lt;br&gt;</description>
</item>

</channel>
</rss>
