mdadm命令是用于雜linux系統(tǒng)中管理軟Raid的工具。軟Raid是一個由兩個或以上的磁盤分區(qū)組成的虛擬矩陣。它允許由多個設(shè)備(通常是磁盤或分區(qū))組成一個單一文件系統(tǒng)的矩陣。有些Raid級別提供冗余能力赘方,在一定程度上能避免設(shè)備損壞帶來的數(shù)據(jù)損失。
命令格式
mdadm [mode] <raiddevice> [options] <component-devices>
支持的Raid級別有:RAID-0,RAID-1打掘,RAID-4,RAID-5鹏秋,RAID-6尊蚁,RAID-10。
常用模式及其相關(guān)選項
- -C:創(chuàng)建模式
專屬選項包括:
-n #:指定使用#個塊設(shè)備來創(chuàng)建此RAID侣夷;
-l #:指定要創(chuàng)建的RAID的級別横朋;
-a {yes|no}:指定是否自動創(chuàng)建目標RAID設(shè)備的設(shè)備文件;
-c CHUNK_SIZE:指定塊大邪偻亍琴锭;
-x #:指定空閑盤的個數(shù);
- -C:創(chuàng)建模式
- -D:顯示RAID的詳細信息衙传;也可以通過cat /proc/mdstat查看創(chuàng)建的md設(shè)備的信息决帖;
- -A:裝配模式,重新識別此前實現(xiàn)的RAID粪牲;
- -F:監(jiān)控模式
- 管理模式:
-f:標記指定磁盤為損壞
-a:添加磁盤古瓤;
-r:移除磁盤;
- 管理模式:
- -S:停止md設(shè)備
使用案例
創(chuàng)建一個可用空間為10G的RAID5設(shè)備腺阳,要求其chunk大小為256K,并且有一個空閑盤:
[root@localhost ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 -x 1 -c 256K /dev/sdb{1,2,3,4}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Mar 3 14:16:54 2018
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Mar 3 14:17:21 2018
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 256K
Consistency Policy : resync
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 2ffe38f5:b9d7a745:6d95db4f:961b452b
Events : 18
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
4 8 19 2 active sync /dev/sdb3
3 8 20 - spare /dev/sdb4
把上述創(chuàng)建的Raid5矩陣格式化后掛載進文件系統(tǒng)的/mnt目錄穿香,隨后把/etc/passwd 復(fù)制粘貼到該目錄下亭引,具體步驟如下:
[root@localhost ~]# mke2fs -t ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
文件系統(tǒng)標簽=
OS type: Linux
塊大小=4096 (log=2)
分塊大小=4096 (log=2)
Stride=64 blocks, Stripe width=128 blocks
655360 inodes, 2618880 blocks
130944 blocks (5.00%) reserved for the super user
第一個數(shù)據(jù)塊=0
Maximum filesystem blocks=2151677952
80 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
Allocating group tables: 完成
正在寫入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成
[root@localhost ~]#
[root@localhost ~]# mount /dev/md0 /mnt/
[root@localhost ~]# df -lh
文件系統(tǒng) 容量 已用 可用 已用% 掛載點
/dev/mapper/centos-root 18G 4.2G 14G 24% /
devtmpfs 472M 0 472M 0% /dev
tmpfs 488M 48M 441M 10% /dev/shm
tmpfs 488M 14M 474M 3% /run
tmpfs 488M 0 488M 0% /sys/fs/cgroup
/dev/sda1 497M 181M 316M 37% /boot
tmpfs 98M 44K 98M 1% /run/user/1000
tmpfs 98M 44K 98M 1% /run/user/0
/dev/sdd1 4.8G 21M 4.6G 1% /mydata
/dev/md0 9.8G 37M 9.2G 1% /mnt
[root@localhost ~]# cp /etc/passwd /mnt/
[root@localhost ~]# ll /mnt/
總用量 20
drwx------. 2 root root 16384 3月 3 14:19 lost+found
-rw-r--r--. 1 root root 2321 3月 3 14:22 passwd
[root@localhost ~]# tail -n 5 /mnt/passwd
tcpdump:x:72:72::/:/sbin/nologin
sssd:x:989:984:User for sssd:/:/sbin/nologin
abrt:x:173:173::/etc/abrt:/sbin/nologin
setroubleshoot:x:988:983::/var/lib/setroubleshoot:/sbin/nologin
charlie:x:1000:1000:charlie:/home/charlie:/bin/bash
使用mdadm -F監(jiān)控該矩陣,并將該矩陣的/dev/sdb3設(shè)置為錯誤:
- 終端1:
[root@localhost ~]# mdadm -F /dev/md0 #開啟mdadm的監(jiān)控模式皮获,會持續(xù)監(jiān)控/dev/md0的狀態(tài)
Mar 3 14:24:08: Fail on /dev/md0 /dev/sdb3
Mar 3 14:24:35: SpareActive on /dev/md0 /dev/sdb4 #設(shè)置了/dev/sdb3為錯誤后焙蚓,空閑盤會自動激活替換/dev/sdb3。
- 終端2:
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb3 #設(shè)置矩陣中的/dev/sdb3為錯誤
mdadm: set /dev/sdb3 faulty in /dev/md0
此時依舊還能訪問/mnt/passwd:
[root@localhost ~]# tail -n 5 /mnt/passwd
tcpdump:x:72:72::/:/sbin/nologin
sssd:x:989:984:User for sssd:/:/sbin/nologin
abrt:x:173:173::/etc/abrt:/sbin/nologin
setroubleshoot:x:988:983::/var/lib/setroubleshoot:/sbin/nologin
charlie:x:1000:1000:charlie:/home/charlie:/bin/bash
將標記為損壞的/dev/sdb3分區(qū)移除,并添加新的分區(qū)/dev/sdc1至/dev/md0购公,新增的磁盤會作為空閑盤處理:
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb3
mdadm: hot removed /dev/sdb3 from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdc1
mdadm: added /dev/sdc1
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Mar 3 14:16:54 2018
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Mar 3 14:31:45 2018
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 256K
Consistency Policy : resync
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 2ffe38f5:b9d7a745:6d95db4f:961b452b
Events : 39
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
3 8 20 2 active sync /dev/sdb4
4 8 33 - spare /dev/sdc1
[root@localhost ~]#
安全移除磁盤分區(qū)并停止RAID矩陣:
[root@localhost ~]# umount /mnt/ #先將RAID從掛載點卸載
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdc1 #設(shè)置所屬的磁盤分區(qū)為fault
mdadm: set /dev/sdc1 faulty in /dev/md0
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb{1,2,4}
mdadm: set /dev/sdb1 faulty in /dev/md0
mdadm: set /dev/sdb2 faulty in /dev/md0
mdadm: set /dev/sdb4 faulty in /dev/md0
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdc1 #移除所有的磁盤分區(qū)
mdadm: hot removed /dev/sdc1 from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb{1,2,4}
mdadm: hot removed /dev/sdb1 from /dev/md0
mdadm: hot removed /dev/sdb2 from /dev/md0
mdadm: hot removed /dev/sdb4 from /dev/md0
[root@localhost ~]# mdadm -S /dev/md0 #停止RAID矩陣
mdadm: stopped /dev/md0