<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Lvm без матрешки, pv over lvs, ну как?</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html</link>
    <description>Доброй консоли.&lt;br&gt;Есть способ, описанный подробно в статье habr.com &lt;br&gt;https://habr.com/ru/post/492834/. Я эту статью грызу, кусаю, лижу, курю и тщетно. Думаю до посинения, без просветления. Сжальтесь, пожалуйста.&lt;br&gt;Вот райд. Один pv, один vg, 1,2Тб. Хочу его нарезать, кусочек под кэш сюда, кусочек под кэш туда, вот тут почта, а этому lxc, а этот под облако. А вот эти два под тесты. Вот выше в статье все получается. Моя же Центось хочет работать с &quot;реальными&quot; девайсами, и кушать lvs-cache, как новый pv не желает категорически. А как кэшировать  hdd, если целый рэйд очень жирно, а lvs кэширющего устройства должен быть в одной группе томов кэшируемого? Как Чайфы + Жванецкий,&quot;Ээ?эй есть ещё сдесь хоть кто-то, умнее меняяяя??&quot; Буду очень признателен.&lt;br&gt;</description>

<item>
    <title>Lvm без матрешки, pv over lvs, ну как? (Kirikekeks)</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html#5</link>
    <pubDate>Sat, 04 Mar 2023 08:46:59 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&amp;gt; В этом случае выбирать backing store для lv можно через pvmove или &lt;br&gt;&amp;gt;&amp;gt; offset-ы. И, тогда, можно будет кэшировать и юзать thin в любой &lt;br&gt;&amp;gt;&amp;gt; комбинациив с одним pv.&lt;br&gt;&amp;gt;&amp;gt; Но, никакой практической пользы в этом подходе нет. Это сложно и не &lt;br&gt;&amp;gt;&amp;gt; недежно. Так что, не советую) &lt;br&gt;&amp;gt; Спасибо. Я потом прочитал интересные заметки у amarao404 про деградацию mdadm raid &lt;br&gt;&amp;gt; ssd. И пустил 4 ssd в простой линейный vgs без raid, &lt;br&gt;&amp;gt; c созданиеm lvm-thin кэшированных на nvme. В целом полученным результатом доволен, &lt;br&gt;&amp;gt; и прежде всего пониманием что сделал и куда бежать, если что &lt;br&gt;&amp;gt; :-) &lt;br&gt;&lt;br&gt;Ник у Вас подозрительно похож на автора статьи. Моё почтение, если так. Коммент выше - мой, но забыл залогиниться. Жду обещанного продолжения, про миграцию в геораспределенных кластерах.&lt;br&gt;</description>
</item>

<item>
    <title>Lvm без матрешки, pv over lvs, ну как? (Аноним)</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html#4</link>
    <pubDate>Sat, 04 Mar 2023 08:39:41 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&amp;gt; эти PV.&lt;br&gt;&amp;gt; На самом деле, такое тоже возможно, но, это, скорее, для совсем уж &lt;br&gt;&amp;gt; ценителей искусства. Можно сделать JBOD из SSD + HDD. SSD в &lt;br&gt;&amp;gt; начале, HDD в конце. Из этого JBOD сделать pv, a на &lt;br&gt;&amp;gt; нем vg.&lt;br&gt;&amp;gt; В этом случае выбирать backing store для lv можно через pvmove или &lt;br&gt;&amp;gt; offset-ы. И, тогда, можно будет кэшировать и юзать thin в любой &lt;br&gt;&amp;gt; комбинациив с одним pv.&lt;br&gt;&amp;gt; Но, никакой практической пользы в этом подходе нет. Это сложно и не &lt;br&gt;&amp;gt; недежно. Так что, не советую) &lt;br&gt;&lt;br&gt;Спасибо. Я потом прочитал интересные заметки у amarao404 про деградацию mdadm raid ssd. И пустил 4 ssd в простой линейный vgs без raid, c созданиеm lvm-thin кэшированных на nvme. В целом полученным результатом доволен, и прежде всего пониманием что сделал и куда бежать, если что :-)&lt;br&gt;</description>
</item>

<item>
    <title>Lvm без матрешки, pv over lvs, ну как? (Dorne)</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html#3</link>
    <pubDate>Sat, 04 Mar 2023 08:16:19 GMT</pubDate>
    <description>&amp;gt; &quot;Один pv&quot; значит никакого тебе кэширования средствами LVM. Перечитай статью и посчитай &lt;br&gt;&amp;gt; сколько раз вызывается pvcreate. Особенно на чём именно и почему создаются &lt;br&gt;&amp;gt; эти PV.&lt;br&gt;&lt;br&gt;На самом деле, такое тоже возможно, но, это, скорее, для совсем уж ценителей искусства. Можно сделать JBOD из SSD + HDD. SSD в начале, HDD в конце. Из этого JBOD сделать pv, a на нем vg.&lt;br&gt;В этом случае выбирать backing store для lv можно через pvmove или offset-ы. И, тогда, можно будет кэшировать и юзать thin в любой комбинациив с одним pv.&lt;br&gt;&lt;br&gt;Но, никакой практической пользы в этом подходе нет. Это сложно и не недежно. Так что, не советую)&lt;br&gt;</description>
</item>

<item>
    <title>Lvm без матрешки, pv over lvs, ну как? (Kirikekeks)</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html#2</link>
    <pubDate>Thu, 17 Nov 2022 16:37:59 GMT</pubDate>
    <description>&amp;gt;&amp;gt; https://habr.com/ru/post/492834/. Я эту статью грызу, кусаю, лижу, курю и тщетно. Думаю &lt;br&gt;&amp;gt; А вообще что-либо с RAID1 - так себе идея, ибо тормоза. Есть &lt;br&gt;&amp;gt; приличная замена - https://linuxhint.com/configure-zfs-cache-high-speed-io/ &lt;br&gt;&lt;br&gt;Спасибо, я перечитывал. И пересчитывал. Автор умудрился разрезать raid6 на кусочки, и эти кусочки произвольно складывать в новые pv, выиграв в iops, и бэкапах, и в лабораторных стендах. &lt;br&gt;egrep &apos;#pvcreate&apos; lvm-matreshki.txt &lt;br&gt;#pvcreate /dev/md0&lt;br&gt;#pvcreate /dev/md2&lt;br&gt;#pvcreate --metadatasize 64m /dev/md3&lt;br&gt;#####pvcreate /dev/root/cache&lt;br&gt;#####pvcreate /dev/data/cache&lt;br&gt;#####pvcreate /dev/root/images&lt;br&gt;#pvcreate /dev/cache/cachedata&lt;br&gt;А я неприятно упёрся в потолок понимания текста на русском. &lt;br&gt;С фряхи я начинал, и кое-что про неё помню. Уважаю безмерно. Но мне не tank нужен, а вертолёт. А вертолёты это души сгоревших танков :-)&lt;br&gt;Ладно, спасибо. Пойду по пути где я понимаю, разберу на диски, разобью на разделы и уже с ними буду экспериментировать.&lt;br&gt;</description>
</item>

<item>
    <title>Lvm без матрешки, pv over lvs, ну как? (ACCA)</title>
    <link>https://opennet.dev/openforum/vsluhforumID13/1022.html#1</link>
    <pubDate>Wed, 16 Nov 2022 15:20:20 GMT</pubDate>
    <description>&amp;gt; https://habr.com/ru/post/492834/. Я эту статью грызу, кусаю, лижу, курю и тщетно. Думаю &lt;br&gt;&amp;gt; до посинения, без просветления. Сжальтесь, пожалуйста.&lt;br&gt;&amp;gt; Вот райд. Один pv, один vg, 1,2Тб. Хочу его нарезать, кусочек под &lt;br&gt;&lt;br&gt;&quot;Один pv&quot; значит никакого тебе кэширования средствами LVM. Перечитай статью и посчитай сколько раз вызывается pvcreate. Особенно на чём именно и почему создаются эти PV.&lt;br&gt;&lt;br&gt;А вообще что-либо с RAID1 - так себе идея, ибо тормоза. Есть приличная замена - https://linuxhint.com/configure-zfs-cache-high-speed-io/&lt;br&gt;&lt;br&gt;Только учти, что /boot и /root на ZFS в Linux лучше не совать - не всегда загрузишься.&lt;br&gt;</description>
</item>

</channel>
</rss>
