The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Создание масштабируемого хранилища с использованием WD MyBook NAS + FreeBSD + ZFS
Вместо предисловия.

RAID-Z doesn't require any special hardware. It doesn't need NVRAM for
correctness, and it doesn't need write buffering for good performance. With
RAID-Z, ZFS makes good on the original RAID promise: it provides fast, reliable
storage using cheap, commodity disks.
                                                                      Jeff Bonwick  [0]

Мое знакомство с FreeBSD состоялось  достаточно давно, как только по ряду
причин прошла "первая любовь" к свежему на тот момент QNX Momentics.  Просто
решил взять другую OS для других задач, без всяких аргументов. Но страсть к ZFS
возникла практически мгновенно, как только  прочитал первые материалы по ней в
свете включения кода в HEAD ветку FreeBSD. C тех пор  мы не разлучны, а с
выходом релиза FreeBSD 8.0,  эта привязанность может стать вечной :)

К сожалению, уж очень часто так случается, что место на разделе заканчивается,
и в случае небольших офисных серверов, это превращается в маленькую трагедию.
Завершив переезд на раздел большего размера, остаешься с неприятной мыслью, что
этот раз был не последним, а следующий будет сложнее и дороже во всех смыслах
этого слова.

Относительно недавно, в розничную продажу поступила линейка NAS устройств WD My
Book. Я так же обратил на нее внимание, но в первую очередь потому, что в
голове промелькнула мысль - "Вот оно недостающее звено для бюджетного решения
проблемы серверного пространства", но на тот момент я еще не знал как именно
это можно сделать.

Общая концепция заключалась в том, чтобы использовать NAS не так как его
позиционирует производитель, а в виде блочного устройства. Другими словами ни
CIFS/SAMBA ни FTP не нужны, требуется  получить блочное устройство в составе
FreeBSD но физически расположенное на NAS. И тогда на сцену выйдет ZFS и
возьмет его в свои крепкие руки.

Вариант с созданием блочного устройства посредством mdconfig поверх
подключенной через CIFS точки монтирования, меня категорически не устраивал.
Моя цель где то рядом с ggate, AoE (ATA over Ethernet) или iSCSI.

Упомянутый выше NAS, является достаточно открытым и работает на базе armv5tejl
Linux 2.6.17.14. А значит к нему можно получить доступ по ssh  и установить
дополнительный софт. Процедурs настройки ssh и репозитария optware можно найти
по ссылкам [1] и [2].

К великой радости optware имеет пакет для предоставления блочного устройства по
протоколу AoE, но радость была не долгой, так как все попытки получить AoE на
стороне FreeBSD, оказались не удачными.  Существующий AoE порт CORAID [3] я так
и не смог заставить работать во FreeBSD 8, а мои вопросы к автору порта по
email пока остались без ответа. Возвращаться к ядрам 7.X или тем более 6.X не
имело смысла, так как терялась ZFS.

Вспомнил про гору и Мухамеда, и выяснил что FreeBSD прекрасно дружит с iSCSI и
все необходимое уже присутствует в базовой системе. Остается как то
организовать iSCSI target на стороне NAS. Перепробовав массу вариантов собрать
из исходников iSCSI target ( [4] [5] [6]), я практически отчаялся, пока не
вспомнил, что FreeBSD имеет простенький порт net/iscsi-target. На удивление все
собралось из исходников с первой попытки и у меня на руках оказался готовый
бинарник iscsi-target [8] для ARM LINUX который я положил на NAS в /opt/sbin.

Дело техники.

В качестве iSCSI носителя будем использовать целиком раздел, который ранее
выделялся для CIFS (/dev/md4) для чего нужно в /etc/init.d/network_servers.sh
отключить запуск samba.sh и закоментить в /etc/fstab

   #/dev/md4        /shares/internal ext3   defaults,noatime     0       2

Узнаем полный объем md4.

   [root@BACKUP]# fdisk -l /dev/md4

   Disk /dev/md4: 1992.0 GB, 1992096874496 bytes
   2 heads, 4 sectors/track, 486351776 cylinders
   Units = cylinders of 8 * 512 = 4096 bytes


fdisk показал размер 1992096874496. Опытным путем выяснилось, что в
конфигурации iscsi-targe нужно указать на 1 меньше.

Подготовим конфигурацию для iSCSI /etc/iscsi/targets

   extent0         /dev/md4        0               1992096874495
   target0         rw              extent0         192.168.0.0/24

а так же скрипт автоматического запуска сервиса iSCSI /etc/init.d/iscsi.sh [9]
и добавляем его запуск в список сервисов /etc/init.d/network_servers.sh.
Перезагружаем NAS.

Настройка iSCSI initiator

На стороне сервера FreeBSD (где будем организовывать ZFS пул) настраиваем инициатор.

Утилитой iscontrol выясняем какое имя у нашего target.

   server# iscontrol -d targetaddress=nas.ip-or-hostname
   TargetName=iqn.1994-04.org.netbsd.iscsi-target:target0
   TargetAddress=192.168.0.1:3260,1

Так как в теории устройств NAS у нас должно быть много, их как то надо
идентифицировать. Для целей идентификации MAC адрес подходит как нельзя кстати,
тем более что он указан на корпусе NAS. Дополнительно можно намекнуть на объем
устройство, и тогда получим идентификаторы вида

   00:90:a9:0d:f3:72-2T
   00:90:a9:3d:e3:7a-512G

Cоздаем /etc/iscsi.conf

   #
   # Globals
   #
   port = 3260
   
   #
   00:90:a9:0d:f3:72-2T { # nickname
   targetaddress        = nas.ip-or-hostname
   targetname           = iqn.1994-04.org.netbsd.iscsi-target:target0
   }

Я не нашел штатных настроек FreeBSD для автозапуска инициатора, по этому
добавил скрипт /usr/local/etc/rc.d/iscsiinitiator

   # PROVIDE: iscsiinitiator
   # REQUIRE: DAEMON
   # AFTER: NETWORK

   . /etc/rc.subr

   name="iscsiinitiator"
   rcvar=`set_rcvar`

   start_cmd=iscsi_start
 
   iscsi_start() {
      echo Start iSCSI initiator
      daemon -f iscontrol -c /etc/iscsi.conf -n 00:90:a9:0d:f3:72-2T
   }

   # read settings, set default values
   load_rc_config "$name"
   : ${iscsiinitiator="NO"}

   run_rc_command "$1"

и соотвесвенно, требуется добавить в /etc/rc.conf строчку

   iscsiinitiator_enable="YES"

Итак запускаем приемную часть iSCSI


   server# /usr/local/etc/rc.d/iscsiinitiator start
   Start iSCSI initiator

В dmesg долны появится строки вида

   da0 at iscsi0 bus 0 target 0 lun 0
   da0: <NetBSD NetBSD iSCSI 0> Fixed Direct Access SCSI-3 device

Что означает что весь процесс пройден верно.


Подготовка блочного устройства для включенияв общий пул

Размечаем устройсво da0 средствами gpart

   server# gpart create -s gpt da0
   server# gpart add -t freebsd-zfs -l 00:90:a9:0d:f3:72-2T da0

Проверяем что наше устройство корректно отобразилось в /dev/gpt

   server# ls /dev/gpt
   00:90:a9:0d:f3:72-2T    ... ... ...

Создаем zfs пул

   server# zpool create -m /mnt/big-storage storage0 /dev/gpt/00:90:a9:0d:f3:72-2T

И вот, наш пул готов!

   server# zpool list
   NAME      SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   storage0 1,80T    72K  1,80T     0%  ONLINE  -

Заключение

Мои поверхностные тесты показали скорость работы данного пула, близкие к
максимальным возможностям самой среды FastEthernet. Т.е. 5-6Mbyte/sec, что в
моих обстоятельствах является более чем достаточном. Дополнительно стоит
отметить, что с увеличением количества устройств в пуле, скорость так же будет
расти (если конечно серверный порт и коммутатор гигабитные).

P.S.

Данный пример, своей целью имеет демострацию именно последовательности
действий, а не рекомендуемый вариант использования.

В реальных условиях нужно создавать пул из нескольких NAS устройств и
объединять их в единый RAID-Z с одиночной или двойной точкой отказа.

Но в любом случае последующая ситуация с отказом NAS устройства, или
увеличением общего объема, будет заключаться в подготовке NAS для работы по
iSCSI и добавлением его в ZFS пул, что представляется достаточно тривиальным и
не зависящим от общего объема пула.

Не маловажным остается тот факт, что все работы проводятся без остановки
сервисов или тем белее перезагрузок. Дополнительное пространство просто
появляется и начинает работать на Вас!

[0] http://blogs.sun.com/bonwick/entry/raid_z
[1] http://mybookworld.wikidot.com/ssh-enable
[2] http://mybookworld.wikidot.com/optware
[3] http://support.coraid.com/support/freebsd/
[4] http://www.open-iscsi.org/
[5] http://linux-iscsi.sourceforge.net/
[6] http://iscsitarget.sourceforge.net/
[7] http://www.freshports.org/net/iscsi-target/
[8] http://softlynx.ru/pub/WD-MyBook-NAS/iscsi-target
[9] http://softlynx.ru/pub/WD-MyBook-NAS/iscsi.sh
 
16.03.2010 , Автор: Алексей Волков
Ключи: zfs, raid, iscsi, freebsd, disk / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Диски и файлы / RAID массивы

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, Kliffoth (?), 23:06, 16/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Есть NAS устройства с поддержкой iSCSI за приемлемую цену. Например Thecus N5200 Pro.
     
  • 1.2, Alexei Volkov (?), 23:25, 16/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Спасибо за железку.

    Не трудно посчитать. Получается ~ 30 тыс только за шасси, в то время как тот же My Book 1TB стоит 6 тыс, что в сумме 6*5 как раз дает те же 30 тыс, но уже сами HDD в комплекте.

    Далее при необходимости увеличить емкость еще на 1TB в варианте с WD + 6 тыс, а с Thesus снова начинаем с шасси.

    Но тут немного неправильно сравнивать, устройства под разные цели. И скорости которые будет выдавать WD не стоит сравнивать сравнивать с тем же Thesus. Собстенно этим уже и объясняется разница в цене.

    Тем не менее, основной упор статьи именно на малобюджетный вариант с реальной отказоустойчивостью за счет RAID-Z ZFS.

     
  • 1.4, SubGun (ok), 11:30, 17/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А как вы обошли проблему с тем, что MyBook периодически впадает в сон?
     
     
  • 2.7, Alexei Volkov (?), 16:17, 17/03/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Как то так получилось что с этой проблемой я не столкнулся. Может дело в прошивке?
     

  • 1.5, Ruslan (??), 11:35, 17/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Не понимаю, как 5-6MB/s может быть достаточно.
     
     
  • 2.6, anonimus (?), 13:15, 17/03/2010 [^] [^^] [^^^] [ответить]  
  • +/
    ... от каждого NAS в пуле... разве не достаточно?
     
  • 2.8, Alexei Volkov (?), 16:20, 17/03/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Если хранилище используется под бакап на который по ночам сливаются данные через не шибко шустрые каналы связи, то да, более чем достаточно.
     

  • 1.9, Аноним (-), 16:05, 18/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    тот же упомянутый текус у меня выдавал 50МБ в сек по nfs, 25-30 - samba. гигабитный свитч.
    при этом я даже ничего не тюнил. только поставил прошивку по-новее.
     
  • 1.10, armnic (?), 09:35, 19/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Сервер(1) 2*300Gb SCSI HDD на 2*P3-1,2 GHz 3Gb RAM 2*100Mb LAN Intel82559 :
    Какой вариант подключения к серверу(2) 4*Xeon 8Gb RAM 2*1Gb LAN будет работать надёжнее и быстрее:
    1) Поднять на сервере(1) FreeBSD8.0(PCBSD) c ZFS и расшарить по самбе (на сервере(2) тоже планируется FreeBSD или Linux)
    2) Организовать подключение по iSCSI
    3) ...
     
     
  • 2.11, vvvua (ok), 14:59, 23/03/2010 [^] [^^] [^^^] [ответить]  
  • +/
    Как по мне, то самба не очень хороший вариант для соединения Unix/Linux машин между собой.
    Я могу ошибаться, но iSCSI следует использовать если у вас один клиент. Если много клиентов совместного доступа Linux/UNIX - NFS.  Если нужно кластер делать одинаковых серверов для распределенных вычислений - GFS.
    Samba только в том случае, когда есть разнобой операционок и много клиентов, что не имеют прямого доступа к ФС.
    ---
    Если я правильно домыслил, то iSCSI всё-таки шустрее всего будет. Но сервер(1) будет только носителем. Нельзя будет нормально обслуживать разделяемую ФС.

    2 all: Поправьте, если ошибаюсь.

     

  • 1.12, armnic (?), 08:43, 25/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Да вы правильно домыслили, сервер(1) должен будет лишь предоставлять надёжное файлохранилище для сервера(2) на котором планируется соорудить терминальный сервер.
     
  • 1.13, playnet (?), 09:31, 27/03/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > сервер(1) должен будет лишь предоставлять надёжное файлохранилище для сервера(2) на котором планируется соорудить терминальный сервер.

    УУУУ.. Там не то что 10мб/с, а 250 маловато..
    К слову, 5-6мб/с это мало, я получал в самбе порядка 10мб/с, по NFS под 11. Реальный максимум у 100мбит около 11-12мб/с, теоретический 12.5мб/с (100/8)

     
  • 1.14, Al.Jes (?), 18:53, 14/12/2010 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Разрешите полюбопытствовать, а чем Вас QNX так огорчил?
     
  • 1.15, universite (ok), 00:51, 20/07/2011 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А можете указать полное название NAS железки?
     
  • 1.16, Ged (??), 15:29, 05/04/2014 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    А что происходит с zfs когда iSCSI теряется?
    А то у меня система наглухо виснет. :-(
     
     
  • 2.17, universite (ok), 23:21, 15/04/2014 [^] [^^] [^^^] [ответить]  
  • +/
    > А что происходит с zfs когда iSCSI теряется?
    > А то у меня система наглухо виснет. :-(

    Винда тоже от такого виснет или в синий экран выпадает.

    Какую логику вы хотите?

     

  • 1.18, Ged (??), 11:28, 14/06/2015 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    1. Винда (XP), если это не системный диск, то просто его теряет, т.е. исчезает буковка диска.
    2. Хочу, чтобы все продолжало работать, а при появлении диска все синхронизировалось само.
     


     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру