上一篇文章配置软RAID中配置好Raid之后,还需要进行日常的维护操作,比如其中一块物理硬盘损坏,我们需要进行更换故障磁盘的操作,下面我们将模拟raid1中磁盘损坏来讲解软RAID的维护操作。
一、硬盘故障恢复
1、当软RAID 检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作。
# mdadm /dev/md0 -f /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0
2、查看raid状态
# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[2](F) sdc1[1] 16771712 blocks [2/1] [_U] unused devices: <none>
PS:
a、发现sdb1后面多了个(F),表示这块硬盘已损坏。
b、"[_U]" 表示当前阵列可以正常使用的设备是/dev/sdc1,如果是设备 “/dev/sdc1” 出现故障时,则将变成[U_]。
3、移除故障盘
# mdadm /dev/md0 -r /dev/sdb1 mdadm: hot removed /dev/sdb1
4、查看md0状态,可以看到总数变成1,sdb也移除了,但是总容量没变
# mdadm -D /dev/md0 /dev/md0: Version : 0.90 Creation Time : Thu Oct 29 14:32:00 2015 Raid Level : raid1 Array Size : 16771712 (15.99 GiB 17.17 GB) Used Dev Size : 16771712 (15.99 GiB 17.17 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Thu Oct 29 15:35:16 2015 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : c136a5bf:590fd311:e20a494f:f3c508b2 Events : 0.26 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 33 1 active sync /dev/sdc1
5、添加新硬盘
如果是实际生产中添加新的硬盘,同样需要对新硬盘进行创建分区的操作,这里我们为了方便,将刚才模拟损坏的硬盘再次新加到raid1中
# mdadm /dev/md0 -a /dev/sdb1
再次查看raid,发现raid1正在恢复,等待完成即可
# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb1[2] sdc1[1] 16771712 blocks [2/1] [_U] [>....................] recovery = 4.0% (672640/16771712) finish=2.7min speed=96091K/sec unused devices: <none>
二、RAID扩容
如果现在已经做好的RAID空间还是不够用的话,那么我们可以向里面增加新的硬盘,来增加RAID的空间。
1、添加一块硬盘,然后跟之前步骤一样分区
2、向raid1中添加一块硬盘
# mdadm /dev/md0 -a /dev/sdd1
3、查看raid状态
# mdadm -D /dev/md0 /dev/md0: Version : 0.90 Creation Time : Thu Oct 29 14:32:00 2015 Raid Level : raid1 Array Size : 16771712 (15.99 GiB 17.17 GB) Used Dev Size : 16771712 (15.99 GiB 17.17 GB) Raid Devices : 2 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Thu Oct 29 16:13:13 2015 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 UUID : c136a5bf:590fd311:e20a494f:f3c508b2 Events : 0.34 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 - spare /dev/sdd1
默认情况下,我们向RAID中增加的磁盘,会被默认当作热备盘,我们需要把热备盘加入到RAID的活动盘中。
4、热备盘转换成活动盘
# mdadm -G /dev/md0 -n3
PS:-n3表示使用3块活动盘,系统会自动rebuilding
5、扩容文件系统
RAID 构建完毕后,阵列容量增加,但是文件系统还没有增加,这时我们还需要对文件系统进行扩容。
# df –TH # resize2fs /dev/md0
6、修改RAID 配置文件
需要在配置文件/etc/mdadm.conf里添加上新增的硬盘sdd1
DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c136a5bf:590fd311:e20a494f:f3c508b2

聂扬帆博客
一个分享IT运维相关工作经验和实战技巧的个人博客
2015年10月30日 下午5:22 沙发
逛逛。。。
2022年9月6日 下午1:39 板凳
那mdadm.conf的修改策略是什么. 什么时候需要修改?