The OpenNET Project / Index page

[ новости/++ | форум | wiki | теги ]

форумы  помощь  поиск  регистрация  майллист  вход/выход  слежка  RSS
"Тематический каталог: Управление дисковым пространством в Li..."
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Тематический каталог: Управление дисковым пространством в Li..."  +/
Сообщение от auto_topic on 01-Янв-07, 07:27 
Обсуждение статьи тематического каталога: Управление дисковым пространством в Linux с помощью LVM (linux disk lvm partition raid)

Ссылка на текст статьи: http://www.opennet.ru/base/sys/linux_lvm2.txt.html

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения по теме [Сортировка по времени | RSS]


1. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от Zaharov Dmitry email on 01-Янв-07, 07:27 
У меня возник вопрос, а зачем использовать RAID1.
В LVM2 вроде включили встроенную подержку зеркалирования?
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

2. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от Frank email(??) on 13-Июн-07, 13:20 
Угу, "вроде". Не могу найти достаточно подробного описания зеркалирования силами LVM, чаще всего подразумевают зеркало силами сторонних средств, поскольку описывается использование LVM1 а не LVM2.
Единственное что пока нашёл - http://riseuplabs.org/grimoire//storage/lvm2/#how_do_i_build...
Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

5. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от AIX Linux HPUX LVM user on 15-Апр-08, 18:43 
LVM умеет зеркалить более гибко. Это связанно с тем, что зеркалируются Logical Volume'ы, а не диски целиком. Результат:
Можно зеркалить только те ФС которые нужно, остальное место, к примеру, использовать как единое целое.
Можно повысить избыточность, сделать 3 копии Logical Volume'а, остальное, опять же использовать как хочется.
К слову на LVM'e можно строить RAID 0,1 и 10. Для Mirror+Stripe (RAID 10) нужно минимум 4 диска (разумеется). Создаём 2ве PhisicalVolumeGroup'ы (это 2 зеркала, правда мирорятся уже не Logical Volume'ами а целыми дисками). После этого просто страйпируем Logical Volume'ы на этих PVG и вуаля - RIAD 10.
А вот RAID-5, по крайней мере пока, LVM не умеет.
Вывод: если не "кровь из носу" нужен софтовый RAID-5 - LVM рокс!
Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

3. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от lexa email(??) on 16-Июл-07, 11:18 
А можно как-нибудь сделать LVM диск обычным диском (без потерь даных)?
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

4. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от AIX Linux HPUX LVM user on 15-Апр-08, 18:13 
нет, не можно ^^ только так:
сохранить данные -> вынуть диск из LVM'a -> создать 'обычный' диск -> вернуть данные
Ответить | Правка | ^ к родителю #3 | Наверх | Cообщить модератору

6. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от AIX Linux HPUX LVM user on 15-Апр-08, 18:45 
http://en.wikipedia.org/wiki/Logical_volume_management
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

7. "Управление дисковым пространством в Linux с помощью LVM (lin..."  +/
Сообщение от nikolay email(??) on 09-Апр-12, 07:57 
Помогите пожалуйста решить задачку.
Debian6squeeze+RAID1+LVM.
Надо добавить sda (320Gb) в vg_main и расширить home. Сделал pvcraete, vgextend, lvmresize.
В итоге результат:
# pvs
  PV         VG      Fmt  Attr PSize   PFree
  /dev/md1   vg_main lvm2 a-    73,82g    0
  /dev/sda   vg_main lvm2 a-   298,09g    0
  /dev/sdb6  vg_tmp  lvm2 a-   140,00m    0
  /dev/sdc6  vg_tmp  lvm2 a-   140,00m    0

# vgs
  VG      #PV #LV #SN Attr   VSize   VFree
  vg_main   2   4   0 wz--n- 371,91g    0
  vg_tmp    2   1   0 wz--n- 280,00m    0

# lvs
  LV   VG      Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  home vg_main -wi-ao 303,69g
  root vg_main -wi-ao 236,00m
  usr  vg_main -wi-ao   2,79g
  var  vg_main -wi-ao  65,19g
  tmp  vg_tmp  -wi-ao 280,00m

А это реальная картина.
# df -h
Файловая система      Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/vg_main-root
                      229M  127M   91M  59% /
tmpfs                 505M     0  505M   0% /lib/init/rw
udev                  500M  232K  500M   1% /dev
tmpfs                 505M     0  505M   0% /dev/shm
/dev/mapper/vg_main-home
                      5,6G  599M  5,0G  11% /home
/dev/mapper/vg_tmp-tmp
                      272M   11M  262M   4% /tmp
/dev/mapper/vg_main-usr
                      2,8G  865M  2,0G  31% /usr
/dev/mapper/vg_main-var
                       65G  828M   61G   2% /var

Так вот вопрос, в чём мой затуп? Пока склоняюсь к тому, что vg_main изначально собран на md1.

Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема


  Закладки на сайте
  Проследить за страницей
Created 1996-2017 by Maxim Chirkov  
ДобавитьРекламаВебмастеруГИД  
Hosting by Ihor