RAID磁盘阵列配置详解文档格式.docx
《RAID磁盘阵列配置详解文档格式.docx》由会员分享,可在线阅读,更多相关《RAID磁盘阵列配置详解文档格式.docx(14页珍藏版)》请在冰点文库上搜索。
11.Disk/dev/sdb:
//上一章实验添加的硬盘
12.255heads,63sectors/track,10443cylinders
13.Units=cylindersof16065*512=8225280bytes
14.
15.DeviceBootStartEndBlocksIdSystem
16./dev/sdb1124331954304183Linux
17./dev/sdb22434486619543072+83Linux
18./dev/sdb448671044344797252+5Extended
19./dev/sdb5486751101959898+82Linuxswap/Solaris
20./dev/sdb6511163279775521cW95FAT32(LBA)
21.
22.Disk/dev/sdc:
21.4GB,21474836480bytes
//本章实验添加硬盘(第1块)
23.255heads,63sectors/track,2610cylinders
24.Units=cylindersof16065*512=8225280bytes
25.
26.Disk/dev/sdcdoesn'
tcontainavalidpartitiontable
27.
28.Disk/dev/sdd:
21.4GB,21474836480bytes
//本章实验添加硬盘(第2块)
29.255heads,63sectors/track,2610cylinders
30.Units=cylindersof16065*512=8225280bytes
31.
32.Disk/dev/sdddoesn'
33.
34.Disk/dev/sde:
//本章实验添加硬盘(第3块)
35.255heads,63sectors/track,2610cylinders
36.Units=cylindersof16065*512=8225280bytes
37.
38.Disk/dev/sdedoesn'
39.
40.Disk/dev/sdf:
21.4GB,21474836480bytes
//本章实验添加硬盘(第4块)
41.255heads,63sectors/track,2610cylinders
42.Units=cylindersof16065*512=8225280bytes
43.
44.Disk/dev/sdfdoesn'
2.创建及使用RAID5软磁盘阵列
1)新建RAID软阵列设备/dev/md0
使用mdadm管理工具,选项-l指定RAID级别、-n指定成员磁盘数量、-x指定冗余盘个数(默认为0)、-v显示详细执行过程信息。
以下操作将4块磁盘/dev/sdc、/dev/sdd、/dev/sde、/dev/sdf创建为RAID5阵列设备/dev/md0:
1.[root@svr5~]#mdadm-C/dev/md0-l5-n4/dev/sd[c-f]
//创建RAID5阵列
2.mdadm:
array/dev/md0started.
3.[root@svr5~]#ls-l/dev/md0
//查看新建的阵列设备文件
4.brw-r-----1rootdisk9,010-0815:
55/dev/md0
2)格式化RAID阵列设备
将/dev/md0格式化,创建EXT3文件系统:
1.[root@svr5~]#mkfs.ext3/dev/md0
//格式化软阵列/dev/md0
2.mke2fs1.39(29-May-2006)
3.Filesystemlabel=
4.OStype:
Linux
5.Blocksize=4096(log=2)
6.Fragmentsize=4096(log=2)
7.7864320inodes,15728592blocks
8.786429blocks(5.00%)reservedforthesuperuser
9.Firstdatablock=0
10.Maximumfilesystemblocks=4294967296
11.480blockgroups
12.32768blockspergroup,32768fragmentspergroup
13.16384inodespergroup
14.Superblockbackupsstoredonblocks:
15.32768,98304,163840,229376,294912,819200,884736,1605632,2654208,
16.4096000,7962624,11239424
17.
18.Writinginodetables:
done
19.Creatingjournal(32768blocks):
20.Writingsuperblocksandfilesystemaccountinginformation:
22.Thisfilesystemwillbeautomaticallycheckedevery21mountsor
23.180days,whichevercomesfirst.Usetune2fs-cor-itooverride.
3)挂载及使用RAID阵列设备
新建挂载点目录/mymd,将格式化好的设备/dev/md0挂载到/mymd:
1.[root@svr5~]#mkdir/mymd
//新建挂载点文件夹
2.[root@svr5~]#mount/dev/md0/mymd
//挂载RAID设备
确认挂载结果:
1.[root@svr5~]#mount|grepmd0
//查看挂载情况
2./dev/md0on/mymdtypeext3(rw)
3.[root@svr5~]#df-hT/mymd
//查看文件系统占用情况
4.文件系统
类型
容量
已用
可用
已用%
挂载点
5./dev/md0
ext3
60G
180M
56G
1%
/mymd
从df执行结果可以发现,4块20GB的磁盘组建为RAID5阵列后,默认使用一块磁盘的容量作为冗余空间,实际文件系统的有效容量只有60GB。
4)访问已挂载的软RAID设备
通过挂载点目录访问,方法与使用其他本地文件系统类似:
1.[root@svr5~]#echo"
writetest.."
>
/mymd/mdtest.txt
//写入测试
2.[root@svr5~]#cat/mymd/mdtest.txt
//读取测试
3.writetest..
5)保存软RAID阵列配置
配置文件为/etc/mdadm.conf,默认没有这个文件(需自行建立):
1.[root@svr5~]#ls/etc/mdadm.conf
2.ls:
/etc/mdadm.conf:
没有那个文件或目录
使用mdadm手动建立阵列设备以后,可通过细节输出-v选项(或--verbose)、详情查询选项-D(或--detail)、扫描选项-s(或--scan)来探测阵列配置,重定向到/etc/mdadm.conf即保存为固定配置:
1.[root@svr5~]#mdadm-vDs
//输出阵列md0的详细配置
2.ARRAY/dev/md0level=raid5num-devices=4metadata=0.90spares=1UUID=049091e4-8317-4950-bb65-4f19370a2090
3.devices=/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf
4.[root@svr5~]#mdadm-vDs>
/etc/mdadm.conf
//保存阵列md0的配置
如果是手动建立/etc/mdadm.conf配置文件,其中/dev/md0设备的UUID号也可通过blkid命令获得:
1.[root@svr5~]#blkid/dev/md0
2./dev/md0:
UUID="
049091e4-8317-4950-bb65-4f19370a2090"
SEC_TYPE="
ext2"
TYPE="
ext3"
6)建立自动挂载配置
将默认的挂载设置写到/etc/fstab文件内,设备可直接用/dev/md0,或者改用UUID="
:
1.[root@svr5~]#vim/etc/fstab
//添加自动挂载设置
2.....
3./dev/md0/mymdext3defaults00
4.[root@svr5~]#mount-oremount/mymd
//确认挂载配置正常
3.RAID阵列设备的解散和重组、故障盘替换
1)查看软阵列设备的详细信息
结合mdadm工具的-D选项(或--detail)查看阵列的设备细节:
1.[root@svr5~]#mdadm--detail/dev/md0
3.Version:
0.90
4.CreationTime:
TueOct816:
26:
582013
5.RaidLevel:
raid5
//使用的RAID级别
6.ArraySize:
62914368(60.00GiB64.42GB)
//阵列的有效容量
7.UsedDevSize:
20971456(20.00GiB21.47GB)
//每个成员盘的大小
8.RaidDevices:
4
//参与RAID的磁盘数
9.TotalDevices:
//总磁盘数
10.PreferredMinor:
11.Persistence:
Superblockispersistent
12.
13.UpdateTime:
40:
232013
14.State:
clean
15.ActiveDevices:
4
16.WorkingDevices:
17.FailedDevices:
18.SpareDevices:
0
//冗余盘的个数
19.
20.Layout:
left-symmetric
21.ChunkSize:
64K
22.
23.UUID:
049091e4:
83174950:
bb654f19:
370a2090
24.Events:
0.4
26.NumberMajorMinorRaidDeviceState
//列出所有的成员盘
27.08320activesync/dev/sdc
28.18481activesync/dev/sdd
29.28642activesync/dev/sde
30.38803activesync/dev/sdf
查看阵列的运行状态,可获知有哪些成员磁盘、各成员的状态标记,其中[UUUU]表示4块成员盘都处于正常使用状态:
1.Personalities:
[raid6][raid5][raid4]
2.md0:
activeraid5sdf[3]sde[2]sdd[1]sdc[0]
3.62914368blockslevel5,64kchunk,algorithm2[4/4][UUUU]
4.
5.unuseddevices:
<
none>
2)替换RAID阵列中的故障盘
假设/dev/md0阵列中的成员盘/dev/sdc出现故障了,则在执行磁盘替换操作之前,需要使用mdadm工具的-f选项(或--fail)先标记磁盘故障:
1.[root@svr5~]#mdadm/dev/md0--fail/dev/sdc
//标记/dev/sdc已故障
set/dev/sdcfaultyin/dev/md0
再次查看阵列状态时,可发现状态标识已变为[_UUU],表示其中的第一块成员盘(sdc)已出现故障,被隔离等待测试:
1.[root@svr5~]#cat/proc/mdstat
2.Personalities:
3.md0:
activeraid5sdf[3]sde[2]sdd[1]sdc[4](F)
4.62914368blockslevel5,64kchunk,algorithm2[4/3][_UUU]
6.unuseddevices:
通过测试确认故障磁盘以后,可通过mdadm工具的-r选项(或--remove)将故障磁盘标记为移除:
1.[root@svr5~]#mdadm/dev/md0--remove/dev/sdc
hotremoved/dev/sdc
此后立即将故障盘取下,换上另一块相同大小的完好的磁盘再插入主机,再结合mdadm工具的-a选项(或--add)来重新加入替换后的新磁盘:
1.[root@svr5~]#mdadm/dev/md0--add/dev/sdc
re-added/dev/sdc
观察RAID阵列的状态,可以发现正在处于恢复过程中(可多次查看,百分比会不断增长直至100%),根据校验信息来重写新替换后的磁盘数据、修复阵列:
activeraid5sdc[4]sdf[3]sde[2]sdd[1]
5.[====>
................]recovery=20.6%(4336000/20971456)finish=1.3minspeed=206476K/sec
6.
7.unuseddevices:
8.
9.[root@svr5~]#cat/proc/mdstat
10.Personalities:
11.md0:
12.62914368blockslevel5,64kchunk,algorithm2[4/3][_UUU]
13.[=======>
.............]recovery=35.4%(7436928/20971456)finish=1.1minspeed=202128K/sec
15.unuseddevices:
最后修复完成后,状态再次变为[UUUU]:
activeraid5sdc[0]sdf[3]sde[2]sdd[1]
4.62914368blockslevel5,64kchunk,algorithm2[4/4][UUUU]
3)RAID阵列的解散和重组
当阵列设备不再使用时,可通过mdadm工具的-S选项(或--stop)解散阵列:
1.[root@svr5~]#umount/dev/md0
//卸载已挂载的阵列设备
2.[root@svr5~]#mdadm--stop/dev/md0
//解散阵列设备
3.mdadm:
stopped/dev/md0
4.[root@svr5~]#rm-rf/dev/md0
//删除阵列设备
此后各成员盘可挪作他用(原阵列中的文件数据不保留)。
通过mdadm工具的-A选项(--assemble)可以重组阵列设备,重组操作需要在/etc/mdadm.conf内有预先定义好的阵列配置、成员盘配置,否则将无法重组,只能手工重建了。
假如各成员磁盘在解散后尚未做其他任何写入,重组为原来的阵列(级别、规模一样)后,其中存放的文档数据还可以继续访问。
以下操作将根据配置文件/etc/mdadm.conf中的设置重组/dev/md0阵列设备:
1.[root@localhost~]#mdadm-A/dev/md0
//重组预定义的阵列
/dev/md0hasbeenstartedwith4drives.
3.[root@localhost~]#ls-l/dev/md0
//确认自动生成的设备文件
4.brw-------1rootroot9,010-0818:
40/dev/md0
检查重组后是否能访问原有的文件数据:
1.[root@localhost~]#mount/dev/md0/mymd
//重新挂载阵列设备
2.[root@localhost~]#cat/mymd/mdtest.txt
//访问阵列中原有的文件
2.4扩展
在构建软RAID阵列时,如果是使用分区来实现,建议将分区的类型id改为fd,以方便管理员识别。
反之,如果是用多块整磁盘来实现,则没有必要分区及设置类型,因为重建RAID阵列时会抹去分区表设置。
前例中若改用4个分区/dev/sdc1、/dev/sdd1、/dev/sde1、/dev/sdf1来构建RAID5阵列设备,可参考下列步骤。
1)执行fdisk/dev/sdc建立fd分区/dev/sdc1
进入分区界面:
1.[root@svr5~]#fdisk/dev/sdc
//对磁盘/dev/sdc进行分区
2.DevicecontainsneitheravalidDOSpartitiontable,norSun,SGIorOSFdisklabel
3.BuildinganewD