The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Энтузиасты взяли в свои руки реализацию ZFS для MacOS X, opennews (?), 02-Ноя-09, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


5. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +1 +/
Сообщение от Hedgehog_57email (?), 02-Ноя-09, 11:05 
Честно говоря не понял вашей крайней сентенции.

Я вполне себе из того поколения, которое привыкло бить диск. И тут как раз ZFS очень хорошо вписывается. Потому, что я из единого zpool выделяю несколько zfs, которые шарят одно место на диске. Мне не надо заранее думать, как я буду выкручиваться, когда фотографий окажется больше, чем я предполагал, а вот video или software меньше. Этой проблемы просто нет.

Сейчас мне в LVM не хватает именно этой фишки. Ну, еще онлайнового сжатия и криптования. Но в этом направлении какие-то шаги делаются.

Ответить | Правка | Наверх | Cообщить модератору

7. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +1 +/
Сообщение от otaku (ok), 02-Ноя-09, 11:27 
А в чем у вас проблема это делать с помощью лвм?
По мойму там все эти фишки есть, только надо файловую систему которая поддерживает уменьшение разделов, увеличение разделов по мойму уже все распространенные файловые системы в линуксе поддерживают.
Ответить | Правка | Наверх | Cообщить модератору

8. "> А в чем у вас проблема это делать с помощью лвм?"  +1 +/
Сообщение от poige (ok), 02-Ноя-09, 11:44 
Это не у него проблема. Если (к примеру) сделать 15 разделов, где будет хотя-бы 10 GiB свободного места, то получается что в сумме 150 GiB свободны. Если затем у одного из разделов останется только 5 GiB свободных, то куча общего свободного места никак не поможет -- файловые системы разные, и на суммарные свободные 140 GiB остальных разделов можно только облизываться.
Ответить | Правка | Наверх | Cообщить модератору

12. "> А в чем у вас проблема это делать с помощью лвм?"  –2 +/
Сообщение от Frankemail (??), 02-Ноя-09, 12:18 
именно поэтому надо грамотно подходить к разбивке места, а не резать на дцать разделов, когда в них нет никакой необходимости
не умеешь правильно разделять место на разделы - держи всё в одном разделе и не морочь себе яйца
Ответить | Правка | Наверх | Cообщить модератору

20. "> поэтому надо грамотно подходить"  +4 +/
Сообщение от poige (ok), 02-Ноя-09, 12:47 
Чуваки из Sun решили, что они не настолько грамотные, как Фрэнк с оупиннэт и заморочили себе яйца созданием ZFS. Болваны, безусловно...
Ответить | Правка | Наверх | Cообщить модератору

23. "> поэтому надо грамотно подходить"  +2 +/
Сообщение от fi (ok), 02-Ноя-09, 12:56 
Чуваки из Sun всю свою жизнь херней страдали, даже при ufs (еще даже в соляре2) пилили диск на кучу меких кусочков с запасом 5% - поубивал бы!!! Приходилось вновь пришедшие системы заного инсталировать. Иной раз доходило, что апдейты не ставились!!!


Ответить | Правка | Наверх | Cообщить модератору

118. "> поэтому надо грамотно подходить"  –1 +/
Сообщение от User294 (ok), 02-Ноя-09, 18:01 
И ZFS странноват дизайном, но "по мотивам" был сделат btrfs, в котором много чего сделано получше... :)))
Ответить | Правка | Наверх | Cообщить модератору

124. "> поэтому надо грамотно подходить"  +1 +/
Сообщение от iZEN (ok), 02-Ноя-09, 18:16 
>И ZFS странноват дизайном, но "по мотивам" был сделат btrfs, в котором
>много чего сделано получше... :)))

Очень много слышал (от тебя, в основном), что Btrfs сделана лучше ZFS, но конкретных деталей "чем лучше" ("чем грузины"?) не уловил.
Разъясни, а?

Ответить | Правка | Наверх | Cообщить модератору

127. "> поэтому надо грамотно подходить"  +1 +/
Сообщение от vitek (??), 02-Ноя-09, 18:27 
http://moradan.sopovs.com/2009/07/evangelist-failovix-sistem...
>При этом более интересны различия в архитектуре.
>На самом высоком уровне ZFS использует концепцию плоских деревьев из указателей на блоки, стиль FFS и переменный размер блока, навеянный планировщиком памяти ядра SLAB. Btrfs использует использует дружественные к COW (копирование при записи) B-деревья (в том виде, в каком это представлено Охадом Родехом (Ohad Rodeh) на LSF ‘07) и экстенты. На самом деле btrfs ещё немного лучше, чем можно подумать: каждый кусок данных или метаданных в btrfs - это объект в B-дереве, и эти объекты группируются вместе вперемешку - без оглядки на их тип. ZFS сужает абстракцию всех метаданных и данных до объектов и относящихся к ним операций; btrfs сузила эту абстракцию до листьев B-дерева. После этого самым интересным стало решение проблемы присвоения ключей объектам этого дерева и их упорядочения.
>Ну и сейчас я могу сказать своё личное/фанатичное мнение. С самого начала, я думала, что подход ZFS был проще и чище - в то время код для управления B-деревьями и экстентами был очень усложнён и добавление к нему копирования при записи и контрольных сумм скорее всего привело бы к взрыву мозга. Но после того, как Охад Родех упростил реализацию и сделал её более надёжной, а Крис Масон (Chris Mason) представил свою концепцию "всё есть лист дерева", моё мнение изменилось. Я неофит этого подхода.
Ответить | Правка | Наверх | Cообщить модератору

144. "> поэтому надо грамотно подходить"  +1 +/
Сообщение от iZEN (ok), 02-Ноя-09, 19:58 
>>Ну и сейчас я могу сказать своё личное/фанатичное мнение. С самого начала, я думала, что подход ZFS был проще и чище - в то время код для управления B-деревьями и экстентами был очень усложнён и добавление к нему копирования при записи и контрольных сумм скорее всего привело бы к взрыву мозга. Но после того, как Охад Родех упростил реализацию и сделал её более надёжной, а Крис Масон (Chris Mason) представил свою концепцию "всё есть лист дерева", моё мнение изменилось. Я неофит этого подхода.

Ж)

Итак, ждём тестов Btrfs vs. ZFS.

Ответить | Правка | Наверх | Cообщить модератору

147. "> поэтому надо грамотно подходить"  +2 +/
Сообщение от vitek (??), 02-Ноя-09, 20:11 
для начала ждём саму btrfs! :-D
Ответить | Правка | Наверх | Cообщить модератору

233. "> поэтому надо грамотно подходить"  +/
Сообщение от moradanemail (?), 09-Ноя-09, 22:28 
О Боже, у меня до сих пор там Мейсон обозван Масоном? Какой ужас...
Ответить | Правка | К родителю #127 | Наверх | Cообщить модератору

184. "> поэтому надо грамотно подходить"  –1 +/
Сообщение от User294 (ok), 03-Ноя-09, 00:10 
>Разъясни, а?

Разъясняю - я почитал описалово их устройств, ну и некоторые коменты на этот счет. И сравнил. Чего и вам рекомендую.

Ответить | Правка | К родителю #124 | Наверх | Cообщить модератору

22. "> А в чем у вас проблема это делать с помощью лвм?"  +1 +/
Сообщение от Wulf (??), 02-Ноя-09, 12:55 
> держи всё в одном разделе и не морочь себе яйца

Кстати, именно такой подход и заложен в идеологии ZFS. Солярка, например, при установке на ZFS вообще все пишет в один раздел, точнее zpool. А в этом zpool-е только 2-а zfs-a: / и /export/home. Еще можно, при желании, /var сделать. И все. Никаких /usr /opt и т.п. как в случае с ffs-ом. И никаких проблем с "грамотным подходом к разбивке места"

Ответить | Правка | К родителю #12 | Наверх | Cообщить модератору

15. "> А в чем у вас проблема это делать с помощью лвм?"  +/
Сообщение от vitek (??), 02-Ноя-09, 12:28 
чтобы не писать чушь - http://www.xgu.ru/wiki/LVM - а именно следующее:
# 1.4 Создание группы томов
# 1.5 Активация группы томов
# 1.6 Удаление группы томов
# 1.7 Добавление физических томов в группу томов
# 1.8 Удаление физических томов из группы томов
# 1.9 Создание логического тома
# 1.10 Удаление логических томов
# 1.11 Увеличение логических томов
# 1.12 Уменьшение размера логического тома
# 1.13 Перенос данных с физического тома
а также:
# 4.2 Создание зашифрованных томов LVM
# 4.5 Слияние LVM
Ответить | Правка | К родителю #8 | Наверх | Cообщить модератору

19. "> А в чем у вас проблема это делать с помощью лвм?"  +/
Сообщение от klalafuda (?), 02-Ноя-09, 12:47 

к сожалению, текст по ссылки читать практически невозможно в силу специфического русского языка (IMHO), так что не поленюсь привести оригинальную ссылку:

http://tldp.org/HOWTO/LVM-HOWTO/benefitsoflvmsmall.html

--- cut ---
2.2. Benefits of Logical Volume Management on a Small System

One of the difficult decisions facing a new user installing Linux for the first time is how to partition the disk drive. The need to estimate just how much space is likely to be needed for system files and user files makes the installation more complex than is necessary and some users simply opt to put all their data into one large partition in an attempt to avoid the issue.

Once the user has guessed how much space is needed for /home /usr / (or has let the installation program do it) then is quite common for one of these partitions to fill up even if there is plenty of disk space in one of the other partitions.

With logical volume management, the whole disk would be allocated to a single volume group and logical volumes created to hold the / /usr and /home file systems. If, for example the /home logical volume later filled up but there was still space available on /usr then it would be possible to shrink /usr by a few megabytes and reallocate that space to /home.

Another alternative would be to allocate minimal amounts of space for each logical volume and leave some of the disk unallocated. Then, when the partitions start to fill up, they can be expanded as necessary.

.........
--- cut ---

и тд и тп.

// wbr

Ответить | Правка | Наверх | Cообщить модератору

27. "> А в чем у вас проблема это делать с помощью лвм?"  +/
Сообщение от vitek (??), 02-Ноя-09, 13:10 
и что?
я не понял в поддержку кого (или чего) Вы это привели?

если буржуйский Вам более понятен (а судя по апломбу это так), то первые 2-а предложения - это ситуация без lvm, а остльные - с lvm. начиная отсюда:
>With logical volume management, the whole disk would be allocated to a single volume group and logical volumes created to hold the / /usr and /home file systems. If, for example the /home logical volume later filled up but there was still space available on /usr then it would be possible to shrink /usr by a few megabytes and reallocate that space to /home.

с переводом надеюсь проблем не будет?

зы:
язык вполне понятен, не нужно напраслину наводить.
и вообще, xgu - отличный проэкт .

Ответить | Правка | Наверх | Cообщить модератору

29. "> shrink /usr by a few megabytes and reallocate that space to"  +1 +/
Сообщение от poige (ok), 02-Ноя-09, 13:35 
sudo resize2fs /dev/vg3/test 8G
resize2fs 1.41.8 (11-July-2009)
Filesystem at /dev/vg3/test is mounted on /m/test; on-line resizing required
On-line shrinking from 3932160 to 2097152 not supported.

-- удаче... On-line shrinking насколько я знаю, не поддерживает ни одна из стабильных линуксовых FS. Мало читать wiki "отличного проекта xgu", чтобы не оказаться теоретизирующим умником.

Ответить | Правка | Наверх | Cообщить модератору

30. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 13:48 
а почему тогда выдержка не с "отличного проекта xgu"? :-D

и кстати уже делал. и не раз.
более того!!!  ext2resize входит в такую утиль, как GNU parted (и его фронтэнд - QtParted) http://ext2resize.sourceforge.net/
как! Вы будите утверждать, что и parted не работает?!!! :-DDDDDDDDDDDDDDDDDDDDDDDDD
а ведь именно ей все диски и бью.... даже ntfs отлично резайзит.

зы:
а вот и faq - http://ext2resize.sourceforge.net/faq.html
и обратите внимание ещё на xfs.

Ответить | Правка | Наверх | Cообщить модератору

34. "> и обратите внимание ещё на xfs."  +/
Сообщение от poige (ok), 02-Ноя-09, 14:22 
XFS на 2009-й год вообще не поддерживает shrink, не только on-line, но даже off-line: http://xfs.org/index.php/XFS_FAQ#Q:_Is_there_a_way_to_make_a...

Учи матчасть, Шура.

Ответить | Правка | Наверх | Cообщить модератору

39. "> и обратите внимание ещё на xfs."  +/
Сообщение от vitek (??), 02-Ноя-09, 14:32 
т.е. из всего вышесказанного Вы прицепились только к xfs.
следует ли это понимать, что в остальном Вы ложанулись? (про мат.часть кстати):-DDDDDDDDD
зы:
xfs привёл к тому, что это отличная fs сама по себе. увеличить её размер можно в смонтированном состоянии. $ man xfs_growfs
xfs_growfs, xfs_info - expand an XFS filesystem
SYNOPSIS       xfs_growfs [ -dilnrxV ] [ -D size ] [ -e rtextsize ] [ -L size ] [ -m maxpct ] [ -t mtab ] [ -R size ] mount-point
       xfs_info [ -t mtab ] mount-point
DESCRIPTION    xfs_growfs expands an existing XFS filesystem (see xfs(5)). The mount-point argument is the pathname of the directory where the filesystem is mounted. The filesystem must be mounted to be grown (see mount(8)). The existing contents of the filesystem are undisturbed, and the added space becomes available for additional file storage.
Ответить | Правка | Наверх | Cообщить модератору

42. "> и обратите внимание ещё на xfs."  +/
Сообщение от аноним (?), 02-Ноя-09, 14:37 
Разве речь не о shrink шла?
Ответить | Правка | Наверх | Cообщить модератору

45. "> и обратите внимание ещё на xfs."  +1 +/
Сообщение от vitek (??), 02-Ноя-09, 14:53 
речь шла об lvm.

под lvm могут быть разные фс. и с увеличением, и с уменьшением размера. у каждой свои достоиства и недостатки.

про невозможность ресайзить ext'ы poige слил....

ухватился за последнюю строку об xfs (из раздела ЗЫ: :-DDDDDDDDDDDDDDDDDDDDD).

я ответил на Ваш вопрос?

Ответить | Правка | Наверх | Cообщить модератору

48. "> и обратите внимание ещё на xfs."  +1 +/
Сообщение от Антон (??), 02-Ноя-09, 15:00 
>речь шла об lvm.
>
>под lvm могут быть разные фс. и с увеличением, и с уменьшением
>размера. у каждой свои достоиства и недостатки.

Вам же на пальцах уже разжевали про что речь. Есть два раздела по 10 Гб - A  и B, а каждом свободно 5 Гб. В ZFS в любой раздел можно сразу записать 10 Гб, а в LVM вам нужно руками один раздел уменьшить, а другой увеличить.

Ответить | Правка | К родителю #45 | Наверх | Cообщить модератору

50. "> LVM вам нужно руками один раздел уменьшить"  +1 +/
Сообщение от poige (ok), 02-Ноя-09, 15:06 
+ учитывая, что нет ни одной стабильной FS'ки, которая поддерживает on-line shrink, это нужно делать с отмонтированием…

Вобщем, из аргументов против ZFS один придурок говорит, что надо быть бабкой Вангой и знать всё заранее, другой тычет в wiki по LVM.

Ответить | Правка | К родителю #48 | Наверх | Cообщить модератору

53. "> LVM вам нужно руками один раздел уменьшить"  +1 +/
Сообщение от syeg (ok), 02-Ноя-09, 15:12 
>+ учитывая, что нет ни одной стабильной FS'ки, которая поддерживает on-line shrink,
>это нужно делать с отмонтированием…
>
>Вобщем, из аргументов против ZFS один придурок говорит, что надо быть бабкой
>Вангой и знать всё заранее, другой тычет в wiki по LVM.
>

reiserfs я от безделья ресайзил во все концы еще в SuSE 9.2

Ответить | Правка | К родителю #50 | Наверх | Cообщить модератору

58. "> reiserfs я от безделья ресайзил во все концы еще в SuSE 9.2"  +/
Сообщение от poige (ok), 02-Ноя-09, 15:33 
-- Появился 3-й, который не понимает разницу между on-line resize и off-line.

reiserfs's dmesg: "Can't shrink filesystem on-line."

Ответить | Правка | К родителю #53 | Наверх | Cообщить модератору

61. "> reiserfs я от безделья ресайзил во все концы еще в SuSE 9...."  +/
Сообщение от syeg (ok), 02-Ноя-09, 15:37 
>-- Появился 3-й, который не понимает разницу между on-line resize и
>off-line.
>
>reiserfs's dmesg: "Can't shrink filesystem on-line."

Да, я не знал что ресайз примонтированного раздела называется off-line.

Ответить | Правка | К родителю #58 | Наверх | Cообщить модератору

65. "> ресайз примонтированного раздела называется off-line."  +/
Сообщение от poige (ok), 02-Ноя-09, 15:42 
/usr/src/2.6.31/linux-2.6.31/fs/reiserfs/resize.c:

int reiserfs_resize(struct super_block *s, unsigned long block_count_new)
{
[...]
        if (SB_BLOCK_COUNT(s) >= block_count_new) {
                printk("can\'t shrink filesystem on-line\n");
                return -EINVAL;
        }

Ответить | Правка | К родителю #61 | Наверх | Cообщить модератору

67. "> ресайз примонтированного раздела называется off-line."  +1 +/
Сообщение от syeg (ok), 02-Ноя-09, 15:48 
Хм, действительно, туплю. Growth only. Что же я тогда ресайзил... Несколько лет прошло, не вспомню уже. Хотя точно помню, что какой-то раздел уменьшал и увеличивал другой.
Ответить | Правка | К родителю #65 | Наверх | Cообщить модератору

214. "> LVM вам нужно руками один раздел уменьшить"  +/
Сообщение от User294 (ok), 03-Ноя-09, 20:41 
>reiserfs я от безделья ресайзил во все концы еще в SuSE 9.2

А у "ословодов" (ака авторов aMule) на серванте рейзер3 не так давно характерно сдох, собрать том потом вообще не смогли, fsck облажался. Коменты оных по поводу даунтайма и рейзера - понятны. Толку то с ресайзов, если у него fsck стремный? При том понимаю б ословоды были единственные кто на такое ругается, но ведь гугля видит и еще легион счастливчиков.

Ответить | Правка | К родителю #53 | Наверх | Cообщить модератору

52. "> и обратите внимание ещё на xfs."  +/
Сообщение от syeg (ok), 02-Ноя-09, 15:11 
Чего-то я не понял. ZFS она что, сама решает куда данные лить? Т.е. все имеющиеся пулы представляет одной цельной ФС? Т.е. в случае переполнения раздела с логами получаем переполнение корневого раздела и опаньки?
/me не выдержал, и пошёл ставить солярку для проверки.
Ответить | Правка | К родителю #48 | Наверх | Cообщить модератору

56. "> и обратите внимание ещё на xfs."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 15:24 
Квоты и резервации никто не отменял
Ответить | Правка | К родителю #52 | Наверх | Cообщить модератору

59. "> и обратите внимание ещё на xfs."  +/
Сообщение от syeg (ok), 02-Ноя-09, 15:35 
>Квоты и резервации никто не отменял

Если бы квоты и резервации были панацеей от идиотов, с которыми приходится работать....

Ответить | Правка | К родителю #56 | Наверх | Cообщить модератору

77. "> и обратите внимание ещё на xfs."  +/
Сообщение от Денис Юсуповemail (?), 02-Ноя-09, 16:13 
А вы даёте идиотам возможность отключения квот и резерваций? Кошерненько %)
Ответить | Правка | К родителю #59 | Наверх | Cообщить модератору

88. "> и обратите внимание ещё на xfs."  +/
Сообщение от syeg (ok), 02-Ноя-09, 16:35 
>А вы даёте идиотам возможность отключения квот и резерваций? Кошерненько %)

Не всегда, но приходится. Т.к. высшее начальство их считает крутыми спецами (уже два года не могут осилить демона написать). Ну и ещё орут они громко - уши дороже.

  

Ответить | Правка | К родителю #77 | Наверх | Cообщить модератору

101. "> и обратите внимание ещё на xfs."  +/
Сообщение от аноним (?), 02-Ноя-09, 17:21 
И чем в этом плане они отличаются от битья на резделы?
Ответить | Правка | К родителю #59 | Наверх | Cообщить модератору

163. "> и обратите внимание ещё на xfs."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 21:09 
> И чем в этом плане они отличаются от битья на резделы?

А подумать? Тем, что пространство свободное при этом объединено в пуле, а не попилено на части в разные разделы. И чтобы квоту или резервацию подвинуть - никаких особенных телодвижений с перемещением границ разделов, увеличением/уменьшением логических томов и прочего не нужно. Просто

zfs set quota=1G tank/anonim

Ответить | Правка | К родителю #101 | Наверх | Cообщить модератору

187. "> и обратите внимание ещё на xfs."  +/
Сообщение от аноним (?), 03-Ноя-09, 00:26 
Я про это вообще-то и говорю. А товарищ вон считает что ZFS'ные квоты чем-то хуже yблюдcтва с кучей разделов.
Ответить | Правка | К родителю #163 | Наверх | Cообщить модератору

157. "> и обратите внимание ещё на xfs."  +/
Сообщение от iZEN (ok), 02-Ноя-09, 20:43 
>Чего-то я не понял. ZFS она что, сама решает куда данные лить?

В общем, да.

>Т.е. все имеющиеся пулы представляет одной цельной ФС?

Наоборот.
Все имеющиеся ФС (ZFS'ы, ZVOL'ы с UFS) представляются одним пулом (zpool).

>Т.е. в случае
>переполнения раздела с логами получаем переполнение корневого раздела и опаньки?

Именно так. (Хотя выснить, что там представляет из себя "корневой раздел" в данном контексте не представляется возможным, — это ж zpool, в общем случае, с ZFS в корне).

Ответить | Правка | К родителю #52 | Наверх | Cообщить модератору

76. "> и обратите внимание ещё на xfs."  +/
Сообщение от vitek (??), 02-Ноя-09, 16:06 
>Вам же на пальцах уже разжевали про что речь. Есть два раздела по 10 Гб - A  и B, а каждом свободно 5 Гб. В ZFS в любой раздел можно сразу записать 10 Гб, а в LVM вам нужно руками один раздел уменьшить, а другой увеличить.

ровно в 2-а раза больше операций....
зато я знаю что делаю и точно знаю, что мои порнофильмы не валяются в том же цилиндре, что ядро.

(про online resizing см. ниже/выше - надоело писать ;-))

Ответить | Правка | К родителю #48 | Наверх | Cообщить модератору

188. "> и обратите внимание ещё на xfs."  +1 +/
Сообщение от Bulgarin (ok), 03-Ноя-09, 01:06 
>зато я знаю что делаю и точно знаю, что мои порнофильмы не валяются в том же цилиндре, что ядро.

Да шо ты балакаешь? Ну как будто только от ручного форматирования диска Единой Серии.
Многие годы как контролер диска токой вумный, что сам решает, на какой трэк ему что писать, выдавая тебе фейковую инфу, шоб ты ему верил как родному.
Так что не беспокойся - ядро давно плавно размазано по блину промеж прочей порнографии :)

Ответить | Правка | К родителю #76 | Наверх | Cообщить модератору

90. "> и обратите внимание ещё на xfs."  +/
Сообщение от Да пофиг на имя (?), 02-Ноя-09, 16:38 
>Вам же на пальцах уже разжевали про что речь. Есть два раздела
>по 10 Гб - A  и B, а каждом свободно
>5 Гб. В ZFS в любой раздел можно сразу записать 10
>Гб, а в LVM вам нужно руками один раздел уменьшить, а
>другой увеличить.

Создаешь вместо логического тома снапшот с размером, раным размеру всей группы томов. И так хоть 100 раз. Получишь в точности то, что описал.

Ответить | Правка | К родителю #48 | Наверх | Cообщить модератору

49. "> и обратите внимание ещё на xfs."  +1 +/
Сообщение от poige (ok), 02-Ноя-09, 15:02 
> про невозможность ресайзить ext'ы poige слил....

Да ну, правда что-ли? «… GNU ext2resize is a package which allows resizing ext2 and ext3 filesystems (both shrinking and growing). The ext2resize tool is for resizing unmounted filesystems, and ext2online is for growing a mounted filesystem (it needs a kernel patch to work, however). …»

Так что ПНХ.

Ответить | Правка | К родителю #45 | Наверх | Cообщить модератору

69. "> и обратите внимание ещё на xfs."  +/
Сообщение от vitek (??), 02-Ноя-09, 15:54 
статья 2002 года. а вот что есть в бубунте:
$ man resize2fs
resize2fs - ext2/ext3/ext4 file system resizer
SYNOPSIS
       resize2fs [ -fFpPM ] [ -d debug-flags ] [ -S RAID-stride ] device [ size ]
DESCRIPTION
       The  resize2fs program will resize ext2, ext3, or ext4 file systems. It can be used to enlarge or shrink an unmounted file system located on device. If the filesystem is mounted, it can be used to expand the size of the mounted filesystem, assuming the kernel supports on-line resizing. (As of this writing, the Linux 2.6 kernel supports on-line resize for filesystems mounted using ext3 only.).

зы:
для одарённых - (As of this writing, the Linux 2.6 kernel supports on-line resize for filesystems mounted using ext3 only.).

Ответить | Правка | К родителю #49 | Наверх | Cообщить модератору

83. "> для одарённых"  +/
Сообщение от poige (ok), 02-Ноя-09, 16:26 
Одарённый как раз ты, и даже не удивлюсь, если у тебя со слоном всё пройдёт успешно. А если по теме, то расскажи-ка, чудило, как ты собрался те 14 EXT3-разделов (на LVM), общим объёмом 140 GiB, уменьшать (on-line), чтобы наскрести недостающего места. С учётом того, что нет ни одной стабильной FS в Linux, которая поддерживает shrink, разумеется. ;-)
Ответить | Правка | К родителю #69 | Наверх | Cообщить модератору

35. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от JL2001 (ok), 02-Ноя-09, 14:22 
>а вот и faq - http://ext2resize.sourceforge.net/faq.html
>и обратите внимание ещё на xfs.

#
Can I resize a filesystem while it is mounted?

Yes you can, using the ext2online program (part of the ext2resize package). However, you need to have a kernel patch in order to do this. Please read the documentation in the package.
#
Can I resize an ext3 filesystem (while it is mounted)?

Yes you can, but only using the CVS version of ext2resize or ext2online. You still need to have a kernel patch in order to do this. Please read the documentation in the package.

ядро патчить надо.. в какой нить убунте постоянные патчи ядра при обновлениях могут стать проблемой

а вобще в идеале файловая система могла бы и сама распределять свободное место по требованию (как это и делает zfs, чем меня очень привлекает)

Ответить | Правка | К родителю #30 | Наверх | Cообщить модератору

44. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 14:49 
с устаревшими хавту первый раз встречаетесь?
оттуда - http://ext2resize.sourceforge.net/online.html (2002 год!!!)
>here are patches available for 2.0, 2.2, 2.4, and 2.6. The actual functionality of the patch hasn't changed much since its inception.

иначе говоря - http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=321556 (2005 год!!!)
>Online resizing of ext2 and ext3 filesystems appears to be supported in

the linux 2.6.12 kernel.
и т.д. (а лучшая и актуальная дока - исходники)
зы:
и всем остальным - тут, вниузу, уже про кластерное расширение к lvm2 упоминали - http://sources.redhat.com/cluster/clvm/
а как там с этим у zfs? (а то видишь ли shrink нет... зато кластер есть!!! :-D)

Ответить | Правка | Наверх | Cообщить модератору

51. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от JL2001 (ok), 02-Ноя-09, 15:09 
>иначе говоря - http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=321556 (2005 год!!!)
>>Online resizing of ext2 and ext3 filesystems appears to be supported in

"Only growing is supporting, not shrinking."
а вобще я не специалист, мб с 2005го уже и shrinking supporting

Ответить | Правка | Наверх | Cообщить модератору

60. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 15:36 
>и всем остальным - тут, вниузу, уже про кластерное расширение к lvm2
>упоминали - http://sources.redhat.com/cluster/clvm/
>а как там с этим у zfs? (а то видишь ли shrink
>нет... зато кластер есть!!! :-D)

ZFS вполне себе работает под управлением Open HA Cluster. А если вы про параллельный доступ с нескольких хостов, то кластерные заморочки LVM ничем в этом смысле не помогут какой-нибудь Ext3/4.

Вы вот лучше скажите, чем Линукс в плане дедупликации может похвастаться?


Ответить | Правка | К родителю #44 | Наверх | Cообщить модератору

84. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 16:29 
>ZFS вполне себе работает под управлением Open HA Cluster.

оракловый rac пойдёт? :-DDDDDDDDDDDDDDDDDDD
>LVM ничем в этом смысле не помогут какой-нибудь Ext3/4.

может быть... но ...  http://sources.redhat.com/cluster/clvm/
>The LVM2 locking library and clvmd userland daemon depend on the CMAN cluster manager and DLM lock manager.

....
>Вы вот лучше скажите, чем Линукс в плане дедупликации может похвастаться?

про какую дедупликацию речь?

Ответить | Правка | Наверх | Cообщить модератору

104. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 17:25 
>>Вы вот лучше скажите, чем Линукс в плане дедупликации может похвастаться?
>про какую дедупликацию речь?

данных на диске

Ответить | Правка | К родителю #84 | Наверх | Cообщить модератору

109. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 17:34 
чтобы говорить о ДЕдупликации (в любой Ос.... в линухе к примеру, раз Вы затронули),
то вначале скажите где там и в каком месте идёт ДУпликация, чтобы её ДЕДУплицировать приходилось.

надеюсь понятно изложил.

Ответить | Правка | К родителю #104 | Наверх | Cообщить модератору

135. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 19:18 
>чтобы говорить о ДЕдупликации (в любой Ос.... в линухе к примеру, раз
>Вы затронули),
>то вначале скажите где там и в каком месте идёт ДУпликация, чтобы
>её ДЕДУплицировать приходилось.
>
>надеюсь понятно изложил.

Понятно, дедупликацию данных на диске линукс не умеет ;-)

Ответить | Правка | К родителю #109 | Наверх | Cообщить модератору

141. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 19:51 
ну Вы уж поясните, раз такой опытный и умный. а то - не солидно. :-D
поясните народу, что это за новомодное энтерпрайзное словечко - дедупликация!!!
а то всё старьём всяким (типа рсинк и подобные) пользуемся... правда и горя не знаем. ;-)
Ответить | Правка | К родителю #135 | Наверх | Cообщить модератору

154. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от mnu (??), 02-Ноя-09, 20:31 
http://en.wikipedia.org/wiki/Venti

вот это (и поверх него http://en.wikipedia.org/wiki/Fossil_(file_system) ) умело дедупликацию ещё очень давно. На основе SHA1, ага. Но от коллизий на практике не страдает.

Ответить | Правка | К родителю #141 | Наверх | Cообщить модератору

165. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 21:15 
>http://en.wikipedia.org/wiki/Venti
>
>вот это (и поверх него http://en.wikipedia.org/wiki/Fossil_(file_system) ) умело дедупликацию ещё очень давно.
>На основе SHA1, ага. Но от коллизий на практике не страдает.
>

Это понятно. Но это не в линукс, а в plan9, а в линуксе доступно только через FUSE, то есть это не совсем в линукс, который, как известно, ядро.

Ответить | Правка | К родителю #154 | Наверх | Cообщить модератору

164. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Anon Y Mous (?), 02-Ноя-09, 21:13 
>ну Вы уж поясните, раз такой опытный и умный. а то -
>не солидно. :-D
>поясните народу, что это за новомодное энтерпрайзное словечко - дедупликация!!!
>а то всё старьём всяким (типа рсинк и подобные) пользуемся... правда и
>горя не знаем. ;-)

В гугле забанили?

Ответить | Правка | К родителю #141 | Наверх | Cообщить модератору

140. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от iZEN (ok), 02-Ноя-09, 19:51 
>чтобы говорить о ДЕдупликации (в любой Ос.... в линухе к примеру, раз
>Вы затронули),
>то вначале скажите где там и в каком месте идёт ДУпликация, чтобы
>её ДЕДУплицировать приходилось.
>
>надеюсь понятно изложил.

"Дупликация" — это случайная или намеренная запись одного и того же файла в разные каталоги файловой системы.
"Дедупликация" — это отслеживание средствами файловой системы дублирующихся файлов и замена их единственной копией без потери семантики работы с ним как с разными файлами. Если файл (уникальный в пределах ФС) меняется в каком-то каталоге, то файловая система создаёт ещё один (теперь уже изменённый) файл. Если реплики файла не меняются, то в ФС хранится только одна копия файла.


Ответить | Правка | К родителю #109 | Наверх | Cообщить модератору

143. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 19:56 
вот это уже более понятно о какой дедупликации идёт речь.
(а то в ынтырпрайзной среде так "новый" метод инкрементальных бэкапов обзывать стали)

зы:
честно. про это не знаю. мне это не нужно,.. наверное.

Ответить | Правка | К родителю #140 | Наверх | Cообщить модератору

172. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от аноним (?), 02-Ноя-09, 21:43 
>(а то в ынтырпрайзной среде так "новый" метод инкрементальных бэкапов обзывать стали)

судя по описанию, это не инкрементальный бэкап. Представьте себе, что у вас файл-сервер с home directory для 1000 пользователей и одной шарой для всех типа tmp. К одному из них попадает файл Pirates_Of_Caribean_Sea_5.mkv размером гектар в 20, он этот файл сначала копирует себе в home, потом копирует в tmp, откуда половина из этой тысячи юзверей копирует этот файл в свои home. В итоге один и тот же файл дублируется фиг знает сколько раз.

Ответить | Правка | К родителю #143 | Наверх | Cообщить модератору

183. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от iav (ok), 03-Ноя-09, 00:08 
>"Дупликация" — это случайная или намеренная запись одного и того же файла
>в разные каталоги файловой системы.
>"Дедупликация" — это отслеживание средствами файловой системы дублирующихся файлов и замена их
>единственной копией без потери семантики работы с ним как с разными
>файлами. Если файл (уникальный в пределах ФС) меняется в каком-то каталоге,
>то файловая система создаёт ещё один (теперь уже изменённый) файл. Если
>реплики файла не меняются, то в ФС хранится только одна копия
>файла.

Бывает ещё дедупликация на уровне блоков файловой системы (NetAPP, ZFS) и блоков данных (DataDomain, ныне куплена EMC)

А "дубликация" возникает так же при хранении виртуальных окружений и прочих образов готовых систем, резервных копий, данных, управляемых пользователями (копии документов, электронной почты, и т.п.).

Ответить | Правка | К родителю #140 | Наверх | Cообщить модератору

189. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Bulgarin (ok), 03-Ноя-09, 01:26 
>"Дупликация" — это случайная или намеренная запись одного и того же файла
>в разные каталоги файловой системы.

преднамеренная запись еще одного имени struct inode файла называеся hardlink, и являет собой стандартную функциональность unix file system с бородатых времен.

"случайная запись"? это что, новое слово в робототехнике?

>"Дедупликация" — это отслеживание средствами файловой системы дублирующихся файлов и замена их
>единственной копией без потери семантики работы с ним как с разными

мать мою дивизия...
файл не меняется в каталоге, в каталоге меняется только _ИМЯ_ файла.
какая нахрен деду-пликация? где ее нашли? 8)

не, пойду утоплюсь в стакане с вином... :/


Ответить | Правка | К родителю #140 | Наверх | Cообщить модератору

198. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от аноним (?), 03-Ноя-09, 12:48 
а если ты расшарил файл по самбе, и юзверь копирует его из одной шары в другую, причем обе шары у тебя на одной и той же файловой системе на сервере, то умный unix тоже сделает hardlink?
Ответить | Правка | К родителю #189 | Наверх | Cообщить модератору

199. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Bulgarin (ok), 03-Ноя-09, 14:17 
>а если ты расшарил файл по самбе, и юзверь копирует его из
>одной шары в другую, причем обе шары у тебя на одной
>и той же файловой системе на сервере, то умный unix тоже
>сделает hardlink?

хех, "расшарил файл по самбе"... терминология, блин...

с какого панталыку? в приложении операции read()/write() над разными file descriptor, которым соответвует разные struct inode в ядре/файловой системе.
в случае с zfs немного посложнеее, и названия другие, но ссуть та же.
или есть новые syscall's? исключительно (linux|bsd|solaris)-only 8)

а ты хочешь сказать, что логика файловой системы должна вылавливать каждое долбаное изменение блоков на диске, вычислять для них хеш (это самый легкий случай, не сравнимать же побайтно), сравнивать его с имеющимися посредством индексной базы, и при успехе поиска не писать блок на диск, а просто делать ссылку на найденыша в мета-данных нового файло?
и в нескольких метаданных файлов будет ссылка на один и тот же блок?
а для каждого блока отдельная подструктура в новом слое-провайдере, в которой счетчик ссылок каждый блок, дабы знать, мона его 512-байтное величество deallocation и затем заюзать, или низя? или каждый раз выстраивать эту структуру из имеющихся данных в матаданных файла?

да ну нафик... :)

не, конечно реализуемо, идея давно-давно летает и в общем-то обкатывается, но блин производительность... но блин память, оперативная и феррическая... но блин сумашедший дом с непротиворечивостью метаданных, и блин устойчивость...

Ответить | Правка | К родителю #198 | Наверх | Cообщить модератору

200. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от 222 (?), 03-Ноя-09, 15:50 
>[оверквотинг удален]
>изменение блоков на диске, вычислять для них хеш (это самый легкий
>случай, не сравнимать же побайтно), сравнивать его с имеющимися посредством индексной
>базы, и при успехе поиска не писать блок на диск, а
>просто делать ссылку на найденыша в мета-данных нового файло?
>и в нескольких метаданных файлов будет ссылка на один и тот же
>блок?
>а для каждого блока отдельная подструктура в новом слое-провайдере, в которой счетчик
>ссылок каждый блок, дабы знать, мона его 512-байтное величество deallocation и
>затем заюзать, или низя? или каждый раз выстраивать эту структуру из
>имеющихся данных в матаданных файла?

https://www.opennet.ru/openforum/vsluhforumID3/60511.html

Ответить | Правка | К родителю #199 | Наверх | Cообщить модератору

202. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Bulgarin (ok), 03-Ноя-09, 16:47 
>>а для каждого блока отдельная подструктура в новом слое-провайдере, в которой счетчик
>>ссылок каждый блок, дабы знать, мона его 512-байтное величество deallocation и
>>затем заюзать, или низя? или каждый раз выстраивать эту структуру из
>>имеющихся данных в матаданных файла?
>
>https://www.opennet.ru/openforum/vsluhforumID3/60511.html

да, читал. что, можно записыватся в восторженные хомячки?  
и что, теперь это отменяет физические ограничения - машически выросла скорость числодробилки, блоки телепатируют сразу в память, минуя шину, ...? :)

можно написать файловую систему, что при записи ищет блок в гугле, и если находит, то записывает урль, но толку от нее? :)

для понимания, "дедубабуплетикация" - это разновидность алгоритма компресии, с данными, размазанными по всему массиву, и с ахрененным индексным словарем либо постоянно на лету, либо постоянно в памяти.

те же яйца вид в профиль zfs set compress=gzip-n zpool, только другой алгоритм в другом месте.

хай живе, конечно, ... можно дедупликацию вынести еще и на scsi контролер... там один хрен между шиной и ферритом десять слоев преобразований, останется только планку в 1gb на плату присобачить :)

Ответить | Правка | К родителю #200 | Наверх | Cообщить модератору

224. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от iav (ok), 04-Ноя-09, 01:58 
>а ты хочешь сказать, что логика файловой системы должна вылавливать каждое долбаное
>изменение блоков на диске, вычислять для них хеш (это самый легкий
>случай, не сравнимать же побайтно), сравнивать его с имеющимися посредством индексной
>базы, и при успехе поиска не писать блок на диск, а
>просто делать ссылку на найденыша в мета-данных нового файло?

Вы так это говорите, будто это что-то плохое.
Online-deduplication работает именно так. DataDomain с этой функцией продаётся уже несколько лет, zfs теперь вот будет.

Ответить | Правка | К родителю #199 | Наверх | Cообщить модератору

228. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Bulgarin (ok), 05-Ноя-09, 00:14 
>Вы так это говорите, будто это что-то плохое.
>Online-deduplication работает именно так. DataDomain с этой функцией продаётся уже несколько лет,
>zfs теперь вот будет.

Отношусь к данной возможности публично-скептически, в противовес восторженным хомячкам, не вникающим какой ценой подобная функциональность достигается.
Идее более 10 лет, но пока реализации были не то что бы очень.
Верить заявлениям на блоге - ну так на заборе тоже написано, а там дрова.
А так... а я чо.. а ниче... клево :)


Ответить | Правка | К родителю #224 | Наверх | Cообщить модератору

97. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от Sw00p aka Jeromemail (?), 02-Ноя-09, 17:08 
>>А если вы про параллельный доступ с нескольких хостов, то кластерные заморочки LVM ничем в этом смысле не помогут какой-нибудь Ext3/4.

а что Ext3/4 кластерные фс ?
и clvm в связке с GFS2 работает (http://www.redhat.com/gfs/)
думаю с OCFS2 от Oracle-а не сравниться
и ваще они расчитаны на всякие там насы саны

Ответить | Правка | Наверх | Cообщить модератору

105. "> shrink /usr by a few megabytes and reallocate that space t..."  +/
Сообщение от vitek (??), 02-Ноя-09, 17:25 
они - нет.
а clvm - да.
он уровнем ниже, поэтому теоретически сможет разрулить блокировки, синхронный/асинхронный доступ и т.д.
Ответить | Правка | К родителю #97 | Наверх | Cообщить модератору

57. "> ядро патчить надо.."  +/
Сообщение от poige (ok), 02-Ноя-09, 15:28 
Да не надо ничего патчить, ровно как и слушать идиотов.

Те патчи, на которые это сказачное чудо ссылается ( http://sourceforge.net/tracker/?group_id=3834&atid=303834 ), родом из 2004-о года, для ядра версии 2.6.5. Они давно уже замерджены в mainline и ext3fs давно поддерживает on-line grow.

(Shrink -- нет.)

Ответить | Правка | К родителю #35 | Наверх | Cообщить модератору

106. "> ядро патчить надо.."  +/
Сообщение от vitek (??), 02-Ноя-09, 17:29 
т.е. с 2004 в ведре, но что там дальше - Вы не знаете? :-DDDDDDDD
ну хоть по вопросу искать источники стали... а не только бред писать...

демонстрация для одарённых:

# dd if=/dev/zero of=./1.iso count=100000
100000+0 записей считано
100000+0 записей написано
скопировано 51200000 байт (51 MB), 0,634216 c, 80,7 MB/c

# mkdir /1

# mkfs.ext3 ./1.iso
mke2fs 1.41.9 (22-Aug-2009)
./1.iso is not a block special device.
Proceed anyway? (y,n) y
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
12544 inodes, 50000 blocks
2500 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=51380224
7 block groups
8192 blocks per group, 8192 fragments per group
1792 inodes per group
Superblock backups stored on blocks:
    8193, 24577, 40961
Writing inode tables: done                            
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 36 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

# mount -t ext3 ./1.iso /1 -o loop

# ls -l ./1.iso
-rw-r--r-- 1 root root 51200000 2009-11-02 17:13 ./1.iso

# dd if=/dev/zero of=/1/1.iso count=1000
1000+0 записей считано
1000+0 записей написано
скопировано 512000 байт (512 kB), 0,00642566 c, 79,7 MB/c

# ls -l /1
итого 515
-rw-r--r-- 1 root root 512000 2009-11-02 17:14 1.iso
drwx------ 2 root root  12288 2009-11-02 17:13 lost+found

# resize2fs -f ./1.iso 25M
resize2fs 1.41.9 (22-Aug-2009)
Resizing the filesystem on ./1.iso to 25600 (1k) blocks.
The filesystem on ./1.iso is now 25600 blocks long.

# ls -l ./1.iso
-rw-r--r-- 1 root root 26214400 2009-11-02 17:14 ./1.iso

# ls -l /1
итого 515
-rw-r--r-- 1 root root 512000 2009-11-02 17:14 1.iso
drwx------ 2 root root  12288 2009-11-02 17:13 lost+found

# umount /1

Ответить | Правка | Наверх | Cообщить модератору

125. "> ядро патчить надо.."  +/
Сообщение от poige (ok), 02-Ноя-09, 18:18 
e2fsprogs/src/e2fsprogs-1.41.9/resize/online.c

        if (*new_size < sb->s_blocks_count) {
                printf(_("On-line shrinking from %u to %u not supported.\n"),
                       sb->s_blocks_count, *new_size);
                exit(1);
        }

А так да, команду umount немного местами поменять в листинге, и ву-а-ля.

Ответить | Правка | Наверх | Cообщить модератору

128. "> ядро патчить надо.."  +/
Сообщение от vitek (??), 02-Ноя-09, 18:36 

этот пример я на ходу на убунте проделал.... все желающие могут повторить.
Ответить | Правка | К родителю #125 | Наверх | Cообщить модератору

148. "> все желающие могут повторить."  +/
Сообщение от poige (ok), 02-Ноя-09, 20:14 
Извини, признаю, я был неправ, когда уличал тебя в подлоге насчёт umount. :-) Но так мне тебя ещё больше жаль. Знаешь, что тебе выдаст e2fsck 1.iso после тех манипуляций? -- Да ничего хорошего, поверь (проверь). А знаешь, почему ты облажался? Вот на той же Ubuntu:

# mkdir test.dir && cd test.dir && mkdir mntdir
# dd if=/dev/zero of=512M bs=256M count=2
# mkfs.ext3 -F 512M && mount -oloop 512M mntdir && mount|grep mntdir

(* в этом месте получаем вывода типа: *)
/dev/loop0 on /root/test.dir/mntdir type ext3 (rw)

(* пробуем resize по имени ус-ва: *)
# resize2fs /dev/loop0 511M
resize2fs 1.41.9 (22-Aug-2009)
Filesystem at /dev/loop0 is mounted on /root/test.dir/mntdir; on-line resizing required
On-line shrinking from 131072 to 130816 not supported.

(* А теперь -- дискотека: *)
# resize2fs 512M 511M
resize2fs 1.41.9 (22-Aug-2009)
Resizing the filesystem on 512M to 130816 (4k) blocks.
The filesystem on 512M is now 130816 blocks long.

Как уже говорил, после такого издевательства над файлом-образом, fsck -- твой друг навек.

"по состоянию на 2009 год возможность on-line resize у стабильных линуксовых FS'ок отсутствует напрочь" (c)

Ответить | Правка | К родителю #128 | Наверх | Cообщить модератору

197. "> on-line resize"  +/
Сообщение от poige (ok), 03-Ноя-09, 12:15 
О-писка, должно быть "on-line shrink".
Ответить | Правка | К родителю #148 | Наверх | Cообщить модератору

156. "> ядро патчить надо.."  +/
Сообщение от Аноним (-), 02-Ноя-09, 20:38 
>e2fsprogs/src/e2fsprogs-1.41.9/resize/online.c

Ради интереса посмотрел исходники последней версии пакета e2fsprogs из Ubuntu. Подтверждаю, вместо кода уменьшения размера для смонтированных ФС стоит заглушка с выводом предупреждения, что такая операция не поддерживается.

2 vitek: трудно было проверить самому, прежде чем раводить флейм ?

Ответить | Правка | К родителю #125 | Наверх | Cообщить модератору

179. "> ядро патчить надо.."  +/
Сообщение от Аноним (-), 02-Ноя-09, 22:44 
А теперь немного приблизьте эксперимент к реальным условиям:
1. скопируйте на ваш разлел 50 Мб небольших файлов, допустим из /usr/bin.
2. Удалите половину, скопируйте еще 25 Мб, удалите опять половину случайным образом.
3. Посчитайте для оставшихся 25 Мб  MD5 хэши.
4. Выполните resize2fs в сторону уменьшения.
5. Отмонтируйте раздел, опять примонтируйте.
6. Посчитайте еще раз MD5 хэши.
7. Удивитесь, что оказывается не все хэши совпали :-)
Ответить | Правка | Наверх | Cообщить модератору

10. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +/
Сообщение от Frankemail (??), 02-Ноя-09, 12:16 
> я из единого zpool выделяю несколько zfs, которые шарят одно место на диске

а я из единого /dev/sda1 выделяю несколько директорий, которые шарят одно место на диске.
Так зачем извращаться?

Ответить | Правка | К родителю #5 | Наверх | Cообщить модератору

36. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +/
Сообщение от JL2001 (ok), 02-Ноя-09, 14:25 
>> я из единого zpool выделяю несколько zfs, которые шарят одно место на диске
>
>а я из единого /dev/sda1 выделяю несколько директорий, которые шарят одно место
>на диске.
>Так зачем извращаться?

можно поподробнее как делается "шара директориями одного места на диске" ?

Ответить | Правка | Наверх | Cообщить модератору

62. "> можно поподробнее как делается 'шара"  +/
Сообщение от poige (ok), 02-Ноя-09, 15:37 
"Одно место" :-) можно шарить через mount --bind. Только так ZFS всё равно не получишь. :-))
Ответить | Правка | Наверх | Cообщить модератору

86. "> можно поподробнее как делается 'шара"  +/
Сообщение от JL2001 (ok), 02-Ноя-09, 16:34 
маленький офтопик:
а как кроме бинда можно бы один диск подсоединить в два места чтоб например bin и home на одном диске а рут на другом ?
и можно ли через фстаб прописывать бинды ?
Ответить | Правка | Наверх | Cообщить модератору

119. "> можно поподробнее как делается 'шара"  +/
Сообщение от vitek (??), 02-Ноя-09, 18:03 
а симлинки запретили?
Ответить | Правка | Наверх | Cообщить модератору

186. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +/
Сообщение от iav (ok), 03-Ноя-09, 00:20 
>> я из единого zpool выделяю несколько zfs, которые шарят одно место на диске
>
>а я из единого /dev/sda1 выделяю несколько директорий, которые шарят одно место
>на диске.
>Так зачем извращаться?

Чтобы установить для этой директории ограничение занимаемого объёма сверху?
чтобы установить для этой директории резервацию объёма (то есть никакая другая ФС его не сможет занять)?
Чтобы сделать снапшот этой директории?
Чтобы отправить инкрементальный снапшот этой директории в другой пул, который может быть на другой машине?
Чтобы установить другие свойства для этой директории? Такие, как включить/выключить компрессию, поменять размер блока, включить шифрование, установить другое количество копий информации, "только для чтения", и прочее подобное?
Чтобы иметь возможность её отмонтировать, потому что вам это удобно перед запуском какой-то глобальой опрации?

Ответить | Правка | К родителю #10 | Наверх | Cообщить модератору

16. "Энтузиасты взяли в свои руки реализацию ZFS для MacOS X"  +/
Сообщение от Sw00p aka Jeromemail (?), 02-Ноя-09, 12:35 
http://sources.redhat.com/cluster/clvm/

Clustering extensions to the standard LVM2 toolset allow existing LVM2 commands to simply and safely manage shared storage. The LVM2 locking library and clvmd userland daemon depend on the CMAN cluster manager and DLM lock manager.

Ответить | Правка | К родителю #5 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру