Linux下软RAID维护

2015年10月29日16:30:51 2 7,660

上一篇文章配置软RAID中配置好Raid之后,还需要进行日常的维护操作,比如其中一块物理硬盘损坏,我们需要进行更换故障磁盘的操作,下面我们将模拟raid1中磁盘损坏来讲解软RAID的维护操作。

一、硬盘故障恢复

1、当软RAID 检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作。

# mdadm /dev/md0 -f /dev/sdb1

mdadm: set /dev/sdb1 faulty in /dev/md0

2、查看raid状态

# cat /proc/mdstat

Personalities : [raid1]

md0 : active raid1 sdb1[2](F) sdc1[1]

16771712 blocks [2/1] [_U]

unused devices: <none>

PS:

a、发现sdb1后面多了个(F),表示这块硬盘已损坏。

b、"[_U]" 表示当前阵列可以正常使用的设备是/dev/sdc1,如果是设备 “/dev/sdc1” 出现故障时,则将变成[U_]。

3、移除故障盘

# mdadm /dev/md0 -r /dev/sdb1

mdadm: hot removed /dev/sdb1

4、查看md0状态,可以看到总数变成1,sdb也移除了,但是总容量没变

# mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Thu Oct 29 14:32:00 2015
Raid Level : raid1
Array Size : 16771712 (15.99 GiB 17.17 GB)
Used Dev Size : 16771712 (15.99 GiB 17.17 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Thu Oct 29 15:35:16 2015
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

UUID : c136a5bf:590fd311:e20a494f:f3c508b2
Events : 0.26

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1

5、添加新硬盘

如果是实际生产中添加新的硬盘,同样需要对新硬盘进行创建分区的操作,这里我们为了方便,将刚才模拟损坏的硬盘再次新加到raid1中

# mdadm /dev/md0 -a /dev/sdb1

再次查看raid,发现raid1正在恢复,等待完成即可

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[2] sdc1[1]
16771712 blocks [2/1] [_U]
[>....................] recovery = 4.0% (672640/16771712) finish=2.7min speed=96091K/sec
unused devices: <none>

二、RAID扩容

如果现在已经做好的RAID空间还是不够用的话,那么我们可以向里面增加新的硬盘,来增加RAID的空间。

1、添加一块硬盘,然后跟之前步骤一样分区

2、向raid1中添加一块硬盘

# mdadm /dev/md0 -a /dev/sdd1

3、查看raid状态

# mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Thu Oct 29 14:32:00 2015
Raid Level : raid1
Array Size : 16771712 (15.99 GiB 17.17 GB)
Used Dev Size : 16771712 (15.99 GiB 17.17 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Thu Oct 29 16:13:13 2015
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1

UUID : c136a5bf:590fd311:e20a494f:f3c508b2
Events : 0.34

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

2 8 49 - spare /dev/sdd1

默认情况下,我们向RAID中增加的磁盘,会被默认当作热备盘,我们需要把热备盘加入到RAID的活动盘中。

4、热备盘转换成活动盘

# mdadm -G /dev/md0 -n3

PS:-n3表示使用3块活动盘,系统会自动rebuilding

5、扩容文件系统

RAID 构建完毕后,阵列容量增加,但是文件系统还没有增加,这时我们还需要对文件系统进行扩容。

# df –TH

# resize2fs /dev/md0

6、修改RAID 配置文件

需要在配置文件/etc/mdadm.conf里添加上新增的硬盘sdd1

DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c136a5bf:590fd311:e20a494f:f3c508b2
weinxin
聂扬帆博客
一个分享IT运维相关工作经验和实战技巧的个人博客

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:2   其中:访客  2   博主  0

    • avatar 佛山铝门厂 0

      逛逛。。。

      • avatar dachui 5

        那mdadm.conf的修改策略是什么. 什么时候需要修改?