Info
Content

2. Работа с mdadm

Собрать RAID0/5/10

Имеем машину с 4 доп дисками по 20Г

root@fhmoh45jgovcvvojfp9e:~# lshw -c disk -short
H/W path      Device     Class          Description
===================================================
/0/103/0/0    /dev/vda   disk           19GB Virtual I/O device
/0/104/0/0    /dev/vdb   disk           21GB Virtual I/O device
/0/105/0/0    /dev/vdc   disk           21GB Virtual I/O device
/0/106/0/0    /dev/vdd   disk           21GB Virtual I/O device
/0/107/0/0    /dev/vde   disk           21GB Virtual I/O device

Так как я с ними уже эксперементировал, то на них осталась инфа о предыдущих массивах (RAID_superblock_formats)
Поэтому надо ее стереть (можно и не стирать, она перезатрется при создании нового массива, но будут варнинги):

root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdb
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdc
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdd
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vde

RAID10

root@fhmoh45jgovcvvojfp9e:~# mdadm --create --verbose /dev/md10 -l 10 -n 4 /dev/vdb /dev/vdc /dev/vdd /dev/vde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.

Идет ресинк:

root@fhmoh45jgovcvvojfp9e:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md10 : active raid10 vde[3] vdd[2] vdc[1] vdb[0]
      41908224 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
      [=>...................]  resync =  8.5% (3566720/41908224) finish=12.1min speed=52774K/sec

unused devices: <none>

Готово:

root@fhmoh45jgovcvvojfp9e:~# mdadm --detail /dev/md10
/dev/md10:
           Version : 1.2
     Creation Time : Thu Sep 21 10:19:40 2023
        Raid Level : raid10
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Thu Sep 21 10:33:17 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : near=2
        Chunk Size : 512K

Consistency Policy : resync

              Name : fhmoh45jgovcvvojfp9e:10  (local to host fhmoh45jgovcvvojfp9e)
              UUID : 2f1d5512:cd3be380:0042535a:4bcddb96
            Events : 17

    Number   Major   Minor   RaidDevice State
       0     252       16        0      active sync set-A   /dev/vdb
       1     252       32        1      active sync set-B   /dev/vdc
       2     252       48        2      active sync set-A   /dev/vdd
       3     252       64        3      active sync set-B   /dev/vde

Дальше я рестартанул машину и обнаружил что массив собрался сам
Но непойми как
Например название у него '/dev/md127'

Чтобы mdadm при старте системы собирал обратно все как я задумал, опишу 'mdadm.conf':

root@fhmoh45jgovcvvojfp9e:/etc/mdadm# mdadm -D --scan
ARRAY /dev/md/fhmoh45jgovcvvojfp9e:10 metadata=1.2 name=fhmoh45jgovcvvojfp9e:10 UUID=2f1d5512:cd3be380:0042535a:4bcddb96

Результат команды выше положил в файл так что получилось так:

root@fhmoh45jgovcvvojfp9e:/etc/mdadm# cat mdadm.conf
DEVICE partitions containers
ARRAY /dev/md/raid10 metadata=1.2 name=fhmoh45jgovcvvojfp9e:10 UUID=2f1d5512:cd3be380:0042535a:4bcddb96
No Comments
Back to top