RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份的技术。
组成磁盘阵列的不同方式称为RAID级别。上一篇文章分析了每个级别的区别https://yangfannie.com/881.html
一、设置磁盘
这里我们以Raid 1为例,其他的Raid级别设置类似。Riad 1需要两块硬盘,我在vps里添加了2块80G的硬盘。系统里使用fdisk –l 命令查看
二、安装mdadm
mdadm 是multiple devices admin 的简称,它是Linux下的一款标准的软件RAID 管理工具。
1、先查看是否安装了mdadm软件
# rpm -qa|grep mdadm
2、如果未安装,则使用yum 方式安装。
# yum install mdadm
三、创建RAID
1、新建分区
通过命令查看新建的两块硬盘是/dev/sdb和/dev/sdc,首先对他们进行分区。
# fdisk /dev/sdb //对sdb 进行分区
PS:详细的分区过程参考以前写的文章Centos下磁盘分区及挂载,需要注意的是最后新建好分区先别输入"w"保存,而是输入"p"查看分区情况。
2、修改分区类型
默认新建分区的类型是Linux,代号83,我们需要将其修改为raid 类型。输入"t" ,然后输入"L" 列出所有的文件格式,这里我们选择"fd Linux raid auto", 输入"fd",然后再输入"p" 查看分区情况,这是分区格式已经变成了Linux raid autodetect.
3、保存分区
输入"w",保存分区。
使用同样方法对/dev/sdc进行分区操作。
4、同步分区情况
使用partprobe 命令同步分区情况。
# partprobe Warning: Unable to open /dev/hdc read-write (Read-only file system). /dev/hdc has been opened read-only.
5、查看分区情况
# fdisk -l /dev/sdb /dev/sdc Disk /dev/sdb: 85.8 GB, 85899345920 bytes 255 heads, 63 sectors/track, 10443 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdb1 1 10443 83883366 fd Linux raid autodetect Disk /dev/sdc: 85.8 GB, 85899345920 bytes 255 heads, 63 sectors/track, 10443 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sdc1 1 10443 83883366+ fd Linux raid autodetect
6、开始创建Raid
# mdadm -C /dev/md0 -ayes -l1 -n2 /dev/sd[b,c]1 mdadm: largest drive (/dev/sdc1) exceed size (83883264K) by more than 1% Continue creating array? Continue creating array? (y/n) y mdadm: array /dev/md0 started.
PS:
-C --create 创建阵列;
-a --auto 同意创建设备,如不加此参数时必须先使用mknod 命令来创建一个RAID设备,不过推荐使用-a yes参数一次性创建;
-l --level 阵列模式,支持的阵列模式有 linear, raid0, raid1, raid4, raid5, raid6, raid10, multipath, faulty, container;
-n --raid-devices 阵列中活动磁盘的数目,该数目加上备用磁盘的数目应该等于阵列中总的磁盘数目;
/dev/md0 阵列的设备名称;
/dev/sd{b,c}1 参与创建阵列的磁盘名称;
同理创建其他的Raid命令如下:
Raid 0
# mdadm -C /dev/md0 -ayes -l0 -n2 /dev/sd[b,c]1
Raid 5
# mdadm -C /dev/md0 -ayes -l5 –n3 -x1 /dev/sd[b,c,d,e]1
PS:"-x1" 或"--spare-devices=1" 表示当前阵列中热备盘只有一块,若有多块热备盘,则将"--spare-devices" 的值设置为相应的数目。
7、查看Raid状态
# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 83883264 blocks [2/2] [UU] [>....................] resync = 2.8% (2396800/83883264) finish=6.2min speed=217890K/sec unused devices: <none>
# mdadm -D /dev/md0 /dev/md1: Version : 0.90 Creation Time : Wed Oct 28 11:12:48 2015 Raid Level : raid1 Array Size : 83883264 (80.00 GiB 85.90 GB) Used Dev Size : 83883264 (80.00 GiB 85.90 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Wed Oct 28 11:12:48 2015 State : clean, resyncing Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Rebuild Status : 5% complete UUID : 6c1ffaa0:53fc5fd9:59882ec1:0fc5dd2b Events : 0.1 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1
PS:
Raid Level : 阵列级别
Array Size : 阵列容量大小
Raid Devices : RAID成员的个数
Total Devices : RAID中下属成员的总计个数,因为还有冗余硬盘或分区,也就是spare,为了RAID的正常运珩,随时可以推上去加入RAID的
State : clean, degraded, recovering 状态,包括三个状态,clean 表示正常,degraded 表示有问题,recovering 表示正在恢复或构建
Active Devices : 被激活的RAID成员个数
Working Devices : 正常的工作的RAID成员个数
Failed Devices : 出问题的RAID成员
Spare Devices : 备用RAID成员个数,当一个RAID的成员出问题时,用其它硬盘或分区来顶替时,RAID要进行构建,在没构建完成时,这个成员也会被认为是spare设备
UUID : RAID的UUID值,在系统中是唯一的
8、 创建RAID配置文件
RAID的配置文件为/etc/mdadm.conf,默认是不存在的,需要手工创建。
该配置文件的主要作用是系统启动的时候能够自动加载软RAID,同时也方便日后管理。但不是必须的,推荐对该文件进行配置。如果没有这个文件,则reboot 后,已经创建好的md0 会自动变成md127。
# echo DEVICE /dev/sd{b,c}1 >> /etc/mdadm.conf # mdadm –Ds >> /etc/mdadm.conf
9、修改RAID配置文件
当前生成的/etc/mdadm.conf 文件内容并不符合所规定的格式,所以也是不生效的。要把mdadm.conf文件修改成如下格式(也就是把metadata的参数去掉):
# cat /etc/mdadm.conf DEVICE /dev/sdb1 /dev/sdc1 ARRAY /dev/md0 level=raid1 num-devices=2 UUID=5160ea40:cb2b44f1:c650d2ef:0db09fd0
10、格式化磁盘阵列
# mkfs.ext4 /dev/md0
11、建立挂载点并挂载
# mkdir /raid1 # mount /dev/md0 /raid1/
12、写入/etc/fstab
为了下次开机还能正常使用我们的RAID设备,需要将挂载的信息写入/etc/fstab 文件中。
/dev/md0 /raid1 ext4 defaults 0 0

您可以选择一种方式赞助本站
支付宝扫一扫赞助
微信钱包扫描赞助
赏