2. Работа с mdadm
Собрать RAID0/5/10
Имеем машину с 4 доп дисками по 20Г
root@fhmoh45jgovcvvojfp9e:~# lshw -c disk -short
H/W path Device Class Description
===================================================
/0/103/0/0 /dev/vda disk 19GB Virtual I/O device
/0/104/0/0 /dev/vdb disk 21GB Virtual I/O device
/0/105/0/0 /dev/vdc disk 21GB Virtual I/O device
/0/106/0/0 /dev/vdd disk 21GB Virtual I/O device
/0/107/0/0 /dev/vde disk 21GB Virtual I/O device
Так как я с ними уже эксперементировал, то на них осталась инфа о предыдущих массивах (RAID_superblock_formats)
Поэтому надо ее стереть (можно и не стирать, она перезатрется при создании нового массива, но будут варнинги):
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdb
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdc
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vdd
root@fhmoh45jgovcvvojfp9e:~# mdadm --zero-superblock /dev/vde
RAID10
root@fhmoh45jgovcvvojfp9e:~# mdadm --create --verbose /dev/md10 -l 10 -n 4 /dev/vdb /dev/vdc /dev/vdd /dev/vde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
Идет ресинк:
root@fhmoh45jgovcvvojfp9e:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md10 : active raid10 vde[3] vdd[2] vdc[1] vdb[0]
41908224 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
[=>...................] resync = 8.5% (3566720/41908224) finish=12.1min speed=52774K/sec
unused devices: <none>
Готово:
root@fhmoh45jgovcvvojfp9e:~# mdadm --detail /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Thu Sep 21 10:19:40 2023
Raid Level : raid10
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Sep 21 10:33:17 2023
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Consistency Policy : resync
Name : fhmoh45jgovcvvojfp9e:10 (local to host fhmoh45jgovcvvojfp9e)
UUID : 2f1d5512:cd3be380:0042535a:4bcddb96
Events : 17
Number Major Minor RaidDevice State
0 252 16 0 active sync set-A /dev/vdb
1 252 32 1 active sync set-B /dev/vdc
2 252 48 2 active sync set-A /dev/vdd
3 252 64 3 active sync set-B /dev/vde
Дальше я рестартанул машину и обнаружил что массив собрался сам
Но непойми как
Например название у него '/dev/md127'
Чтобы mdadm при старте системы собирал обратно все как я задумал, опишу 'mdadm.conf':
root@fhmoh45jgovcvvojfp9e:/etc/mdadm# mdadm -D --scan
ARRAY /dev/md/fhmoh45jgovcvvojfp9e:10 metadata=1.2 name=fhmoh45jgovcvvojfp9e:10 UUID=2f1d5512:cd3be380:0042535a:4bcddb96
Результат команды выше положил в файл так что получилось так:
root@fhmoh45jgovcvvojfp9e:/etc/mdadm# cat mdadm.conf
DEVICE partitions containers
ARRAY /dev/md/raid10 metadata=1.2 name=fhmoh45jgovcvvojfp9e:10 UUID=2f1d5512:cd3be380:0042535a:4bcddb96
No Comments