The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

форумы  помощь  поиск  регистрация  майллист  вход/выход  слежка  RSS
"создание zfs на других слайсах"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Открытые системы на рабочей станции (Разное / Solaris)
Изначальное сообщение [ Отслеживать ]

"создание zfs на других слайсах"  +/
Сообщение от bnuran email(ok) on 09-Мрт-11, 13:15 
корневая ФС стоит у меня UFS
из слайсов выделены c3d0s0 и c3d0s7 (/export/home)

когда на слайсе 5-ом разворачиваю новый пул ZFS , он у меня создается также и на остальных слайсах, т.е. (6,7,8)

zpool create zmilit c3d0s5
zpool list показывает только пул zmilit (который размещен на 5-ом слайсе)

Но когда делаю format, она мне сообщает, что 6-7-8 слайсы также являются активными членами пула. Ведь я же на них не создавал ZFS. Как такое может быть ?

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения по теме [Сортировка по времени | RSS]


1. "создание zfs на других слайсах"  +/
Сообщение от zd3n (ok) on 09-Мрт-11, 14:11 
> корневая ФС стоит у меня UFS
> из слайсов выделены c3d0s0 и c3d0s7 (/export/home)
> когда на слайсе 5-ом разворачиваю новый пул ZFS , он у меня
> создается также и на остальных слайсах, т.е. (6,7,8)
> zpool create zmilit c3d0s5
> zpool list показывает только пул zmilit (который размещен на 5-ом слайсе)
> Но когда делаю format, она мне сообщает, что 6-7-8 слайсы также являются
> активными членами пула. Ведь я же на них не создавал ZFS.
> Как такое может быть ?

Покажи дисковую геометрию и таблицу разбиения....

P.S.  prtvtoc

Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

2. "создание zfs на других слайсах"  +/
Сообщение от bnuran (ok) on 13-Мрт-11, 15:27 
> Покажи дисковую геометрию и таблицу разбиения....
> P.S.  prtvtoc

* /dev/rdsk/c3d0s0 partition map
*
* Dimensions:
*     512 bytes/sector
*      32 sectors/track
*     128 tracks/cylinder
*    4096 sectors/cylinder
*    2461 cylinders
*    2459 accessible cylinders
*
* Flags:
*   1: unmountable
*  10: read-only
*
* Unallocated space:
*    First     Sector    Last
*    Sector     Count    Sector
*           0   1052672   1052671
*
*                          First     Sector    Last
* Partition  Tag  Flags    Sector     Count    Sector  Mount Directory
       0      2    00    1052672   9019392  10072063
       1      3    01       4096   1048576   1052671
       2      5    01          0  10072064  10072063
       3      0    00          0   4194304   4194303
       5      0    00          0   2097152   2097151
       8      1    01          0      4096      4095

Ситуация немного изменилась. сейчас переселился на виртуалку (Opensolaris, корневая ФС - ZFS). Но суть таже:

bnuran@nix:~# df -h
Filesystem             size   used  avail capacity  Mounted on
rpool/ROOT/opensolaris
                       4.2G   2.3G   1.8G    56%    /
/devices                 0K     0K     0K     0%    /devices
/dev                     0K     0K     0K     0%    /dev
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   514M   320K   513M     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap3.so.1
                       4.1G   2.3G   1.8G    56%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   513M    16K   513M     1%    /tmp
swap                   514M    44K   513M     1%    /var/run
rpool/export           4.2G    19K   1.8G     1%    /export
rpool/export/home      4.2G    34K   1.8G     1%    /export/home
rpool/export/home/bnuran
                       4.2G    19M   1.8G     2%    /export/home/bnuran
rpool                  4.2G    72K   1.8G     1%    /rpool
/dev/dsk/c4t0d0s2       32M    32M     0K   100%    /media/VBOXADDITIONS_3.2.6_63112
testG                  984M    18K   984M     1%    /testG
bnuran@nix:~#


bnuran@nix:~# format
Searching for disks...done


AVAILABLE DISK SELECTIONS:
       0. c3d0 <DEFAULT cyl 2459 alt 2 hd 128 sec 32>
          /pci@0,0/pci-ide@1,1/ide@0/cmdk@0,0
Specify disk (enter its number): 0
selecting c3d0
NO Alt slice
No defect list found
[disk formatted, no defect list found]
/dev/dsk/c3d0s0 is part of active ZFS pool rpool. Please see zpool(1M).
/dev/dsk/c3d0s1 is currently used by swap. Please see swap(1M).
/dev/dsk/c3d0s2 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s3 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s5 is part of active ZFS pool testG. Please see zpool(1M).
/dev/dsk/c3d0s8 is part of active ZFS pool testG. Please see zpool(1M).


FORMAT MENU:
        disk       - select a disk
        type       - select (define) a disk type
        partition  - select (define) a partition table
        current    - describe the current disk
        format     - format and analyze the disk
        fdisk      - run the fdisk program
        repair     - repair a defective sector
        show       - translate a disk address
        label      - write label to the disk
        analyze    - surface analysis
        defect     - defect list management
        backup     - search for backup labels
        verify     - read and display labels
        save       - save new disk/partition definitions
        volname    - set 8-character volume name
        !<cmd>     - execute <cmd>, then return
        quit
format> par


PARTITION MENU:
        0      - change `0' partition
        1      - change `1' partition
        2      - change `2' partition
        3      - change `3' partition
        4      - change `4' partition
        5      - change `5' partition
        6      - change `6' partition
        7      - change `7' partition
        select - select a predefined table
        modify - modify a predefined partition table
        name   - name the current table
        print  - display the current table
        label  - write partition map and label to the disk
        !<cmd> - execute <cmd>, then return
        quit
partition>  pri
Current partition table (original):
Total disk cylinders available: 2459 + 2 (reserved cylinders)

Part      Tag    Flag     Cylinders        Size            Blocks
  0       root    wm     257 - 2458        4.30GB    (2202/0/0)  9019392
  1       swap    wu       1 -  256      512.00MB    (256/0/0)   1048576
  2     backup    wu       0 - 2458        4.80GB    (2459/0/0) 10072064
  3 unassigned    wm       0 - 1023        2.00GB    (1024/0/0)  4194304
  4 unassigned    wm       0               0         (0/0/0)           0
  5 unassigned    wm       0 -  511     1024.00MB    (512/0/0)   2097152
  6 unassigned    wm       0               0         (0/0/0)           0
  7 unassigned    wm       0               0         (0/0/0)           0
  8       boot    wu       0 -    0        2.00MB    (1/0/0)        4096
  9 unassigned    wm       0               0         (0/0/0)           0

partition>

bnuran@nix:~# zpool create -f tank c3d0s3
invalid vdev specification
the following errors must be manually repaired:
/dev/dsk/c3d0s3 is part of active ZFS pool testG. Please see zpool(1M).
bnuran@nix:~#


Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

3. "создание zfs на других слайсах"  +/
Сообщение от zd3n (ok) on 13-Мрт-11, 16:10 
>[оверквотинг удален]
>  0       root    wm     257 - 2458        4.30GB    (2202/0/0)  9019392
>  1       swap    wu       1 -  256      512.00MB    (256/0/0)   1048576
>  2     backup    wu       0 - 2458        4.80GB    (2459/0/0) 10072064
>  3 unassigned    wm       0 - 1023        2.00GB    (1024/0/0)  4194304
>  4 unassigned    wm       0               0         (0/0/0)           0
>  5 unassigned    wm       0 -  511     1024.00MB    (512/0/0)   2097152
>  6 unassigned    wm       0               0         (0/0/0)           0
>  7 unassigned    wm       0               0         (0/0/0)           0
>  8       boot    wu       0 -    0        2.00MB    (1/0/0)        4096
>  9 unassigned    wm       0               0         (0/0/0)           0

Ну вот и ответ...
Слайсы 3, 5 и 8 пересекаются...(т.е. на hdd есть блоки, которые принадлежат сразу трём слайсам)
И если создавать zfs пул на 3 слайсе, он будет создаваться и на 5, а на 8.
Т.е. 5 и 8 слайсы надо обнулить..

Ответить | Правка | ^ к родителю #2 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру