RAID磁盘阵列配置详解文档格式.docx

上传人:b****2 文档编号:1012570 上传时间:2023-04-30 格式:DOCX 页数:14 大小:86.41KB
下载 相关 举报
RAID磁盘阵列配置详解文档格式.docx_第1页
第1页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第2页
第2页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第3页
第3页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第4页
第4页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第5页
第5页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第6页
第6页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第7页
第7页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第8页
第8页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第9页
第9页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第10页
第10页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第11页
第11页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第12页
第12页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第13页
第13页 / 共14页
RAID磁盘阵列配置详解文档格式.docx_第14页
第14页 / 共14页
亲,该文档总共14页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

RAID磁盘阵列配置详解文档格式.docx

《RAID磁盘阵列配置详解文档格式.docx》由会员分享,可在线阅读,更多相关《RAID磁盘阵列配置详解文档格式.docx(14页珍藏版)》请在冰点文库上搜索。

RAID磁盘阵列配置详解文档格式.docx

11.Disk/dev/sdb:

//上一章实验添加的硬盘

12.255heads,63sectors/track,10443cylinders

13.Units=cylindersof16065*512=8225280bytes

14.

15.DeviceBootStartEndBlocksIdSystem

16./dev/sdb1124331954304183Linux

17./dev/sdb22434486619543072+83Linux

18./dev/sdb448671044344797252+5Extended

19./dev/sdb5486751101959898+82Linuxswap/Solaris

20./dev/sdb6511163279775521cW95FAT32(LBA)

21.

22.Disk/dev/sdc:

21.4GB,21474836480bytes 

//本章实验添加硬盘(第1块)

23.255heads,63sectors/track,2610cylinders

24.Units=cylindersof16065*512=8225280bytes

25.

26.Disk/dev/sdcdoesn'

tcontainavalidpartitiontable

27.

28.Disk/dev/sdd:

21.4GB,21474836480bytes 

//本章实验添加硬盘(第2块)

29.255heads,63sectors/track,2610cylinders

30.Units=cylindersof16065*512=8225280bytes

31.

32.Disk/dev/sdddoesn'

33.

34.Disk/dev/sde:

//本章实验添加硬盘(第3块)

35.255heads,63sectors/track,2610cylinders

36.Units=cylindersof16065*512=8225280bytes

37.

38.Disk/dev/sdedoesn'

39.

40.Disk/dev/sdf:

21.4GB,21474836480bytes 

//本章实验添加硬盘(第4块)

41.255heads,63sectors/track,2610cylinders

42.Units=cylindersof16065*512=8225280bytes

43.

44.Disk/dev/sdfdoesn'

2.创建及使用RAID5软磁盘阵列

1)新建RAID软阵列设备/dev/md0

使用mdadm管理工具,选项-l指定RAID级别、-n指定成员磁盘数量、-x指定冗余盘个数(默认为0)、-v显示详细执行过程信息。

以下操作将4块磁盘/dev/sdc、/dev/sdd、/dev/sde、/dev/sdf创建为RAID5阵列设备/dev/md0:

1.[root@svr5~]#mdadm-C/dev/md0-l5-n4/dev/sd[c-f] 

//创建RAID5阵列

2.mdadm:

array/dev/md0started.

3.[root@svr5~]#ls-l/dev/md0 

//查看新建的阵列设备文件

4.brw-r-----1rootdisk9,010-0815:

55/dev/md0

2)格式化RAID阵列设备

将/dev/md0格式化,创建EXT3文件系统:

1.[root@svr5~]#mkfs.ext3/dev/md0 

//格式化软阵列/dev/md0

2.mke2fs1.39(29-May-2006)

3.Filesystemlabel=

4.OStype:

Linux

5.Blocksize=4096(log=2)

6.Fragmentsize=4096(log=2)

7.7864320inodes,15728592blocks

8.786429blocks(5.00%)reservedforthesuperuser

9.Firstdatablock=0

10.Maximumfilesystemblocks=4294967296

11.480blockgroups

12.32768blockspergroup,32768fragmentspergroup

13.16384inodespergroup

14.Superblockbackupsstoredonblocks:

15.32768,98304,163840,229376,294912,819200,884736,1605632,2654208,

16.4096000,7962624,11239424

17.

18.Writinginodetables:

done

19.Creatingjournal(32768blocks):

20.Writingsuperblocksandfilesystemaccountinginformation:

22.Thisfilesystemwillbeautomaticallycheckedevery21mountsor

23.180days,whichevercomesfirst.Usetune2fs-cor-itooverride.

3)挂载及使用RAID阵列设备

新建挂载点目录/mymd,将格式化好的设备/dev/md0挂载到/mymd:

1.[root@svr5~]#mkdir/mymd 

//新建挂载点文件夹

2.[root@svr5~]#mount/dev/md0/mymd 

//挂载RAID设备

确认挂载结果:

1.[root@svr5~]#mount|grepmd0 

//查看挂载情况

2./dev/md0on/mymdtypeext3(rw)

3.[root@svr5~]#df-hT/mymd 

//查看文件系统占用情况

4.文件系统 

类型 

容量 

已用 

可用 

已用% 

挂载点

5./dev/md0 

ext3 

60G 

180M 

56G 

1% 

/mymd

从df执行结果可以发现,4块20GB的磁盘组建为RAID5阵列后,默认使用一块磁盘的容量作为冗余空间,实际文件系统的有效容量只有60GB。

4)访问已挂载的软RAID设备

通过挂载点目录访问,方法与使用其他本地文件系统类似:

1.[root@svr5~]#echo"

writetest.."

>

/mymd/mdtest.txt 

//写入测试

2.[root@svr5~]#cat/mymd/mdtest.txt 

//读取测试

3.writetest..

5)保存软RAID阵列配置

配置文件为/etc/mdadm.conf,默认没有这个文件(需自行建立):

1.[root@svr5~]#ls/etc/mdadm.conf

2.ls:

/etc/mdadm.conf:

没有那个文件或目录

使用mdadm手动建立阵列设备以后,可通过细节输出-v选项(或--verbose)、详情查询选项-D(或--detail)、扫描选项-s(或--scan)来探测阵列配置,重定向到/etc/mdadm.conf即保存为固定配置:

1.[root@svr5~]#mdadm-vDs 

//输出阵列md0的详细配置

2.ARRAY/dev/md0level=raid5num-devices=4metadata=0.90spares=1UUID=049091e4-8317-4950-bb65-4f19370a2090

3.devices=/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf

4.[root@svr5~]#mdadm-vDs>

/etc/mdadm.conf 

//保存阵列md0的配置

如果是手动建立/etc/mdadm.conf配置文件,其中/dev/md0设备的UUID号也可通过blkid命令获得:

1.[root@svr5~]#blkid/dev/md0

2./dev/md0:

UUID="

049091e4-8317-4950-bb65-4f19370a2090"

SEC_TYPE="

ext2"

TYPE="

ext3"

6)建立自动挂载配置

将默认的挂载设置写到/etc/fstab文件内,设备可直接用/dev/md0,或者改用UUID="

1.[root@svr5~]#vim/etc/fstab 

//添加自动挂载设置

2.....

3./dev/md0/mymdext3defaults00

4.[root@svr5~]#mount-oremount/mymd 

//确认挂载配置正常

3.RAID阵列设备的解散和重组、故障盘替换

1)查看软阵列设备的详细信息

结合mdadm工具的-D选项(或--detail)查看阵列的设备细节:

1.[root@svr5~]#mdadm--detail/dev/md0

3.Version:

0.90

4.CreationTime:

TueOct816:

26:

582013

5.RaidLevel:

raid5 

//使用的RAID级别

6.ArraySize:

62914368(60.00GiB64.42GB) 

//阵列的有效容量

7.UsedDevSize:

20971456(20.00GiB21.47GB) 

//每个成员盘的大小

8.RaidDevices:

//参与RAID的磁盘数

9.TotalDevices:

//总磁盘数

10.PreferredMinor:

11.Persistence:

Superblockispersistent

12.

13.UpdateTime:

40:

232013

14.State:

clean

15.ActiveDevices:

4

16.WorkingDevices:

17.FailedDevices:

18.SpareDevices:

//冗余盘的个数

19.

20.Layout:

left-symmetric

21.ChunkSize:

64K

22.

23.UUID:

049091e4:

83174950:

bb654f19:

370a2090

24.Events:

0.4

26.NumberMajorMinorRaidDeviceState 

//列出所有的成员盘

27.08320activesync/dev/sdc

28.18481activesync/dev/sdd

29.28642activesync/dev/sde

30.38803activesync/dev/sdf

查看阵列的运行状态,可获知有哪些成员磁盘、各成员的状态标记,其中[UUUU]表示4块成员盘都处于正常使用状态:

1.Personalities:

[raid6][raid5][raid4]

2.md0:

activeraid5sdf[3]sde[2]sdd[1]sdc[0]

3.62914368blockslevel5,64kchunk,algorithm2[4/4][UUUU]

4.

5.unuseddevices:

<

none>

2)替换RAID阵列中的故障盘

假设/dev/md0阵列中的成员盘/dev/sdc出现故障了,则在执行磁盘替换操作之前,需要使用mdadm工具的-f选项(或--fail)先标记磁盘故障:

1.[root@svr5~]#mdadm/dev/md0--fail/dev/sdc 

//标记/dev/sdc已故障

set/dev/sdcfaultyin/dev/md0

再次查看阵列状态时,可发现状态标识已变为[_UUU],表示其中的第一块成员盘(sdc)已出现故障,被隔离等待测试:

1.[root@svr5~]#cat/proc/mdstat

2.Personalities:

3.md0:

activeraid5sdf[3]sde[2]sdd[1]sdc[4](F)

4.62914368blockslevel5,64kchunk,algorithm2[4/3][_UUU]

6.unuseddevices:

通过测试确认故障磁盘以后,可通过mdadm工具的-r选项(或--remove)将故障磁盘标记为移除:

1.[root@svr5~]#mdadm/dev/md0--remove/dev/sdc

hotremoved/dev/sdc

此后立即将故障盘取下,换上另一块相同大小的完好的磁盘再插入主机,再结合mdadm工具的-a选项(或--add)来重新加入替换后的新磁盘:

1.[root@svr5~]#mdadm/dev/md0--add/dev/sdc

re-added/dev/sdc

观察RAID阵列的状态,可以发现正在处于恢复过程中(可多次查看,百分比会不断增长直至100%),根据校验信息来重写新替换后的磁盘数据、修复阵列:

activeraid5sdc[4]sdf[3]sde[2]sdd[1]

5.[====>

................]recovery=20.6%(4336000/20971456)finish=1.3minspeed=206476K/sec

6.

7.unuseddevices:

8.

9.[root@svr5~]#cat/proc/mdstat

10.Personalities:

11.md0:

12.62914368blockslevel5,64kchunk,algorithm2[4/3][_UUU]

13.[=======>

.............]recovery=35.4%(7436928/20971456)finish=1.1minspeed=202128K/sec

15.unuseddevices:

最后修复完成后,状态再次变为[UUUU]:

activeraid5sdc[0]sdf[3]sde[2]sdd[1]

4.62914368blockslevel5,64kchunk,algorithm2[4/4][UUUU]

3)RAID阵列的解散和重组

当阵列设备不再使用时,可通过mdadm工具的-S选项(或--stop)解散阵列:

1.[root@svr5~]#umount/dev/md0 

//卸载已挂载的阵列设备

2.[root@svr5~]#mdadm--stop/dev/md0 

//解散阵列设备

3.mdadm:

stopped/dev/md0

4.[root@svr5~]#rm-rf/dev/md0 

//删除阵列设备

此后各成员盘可挪作他用(原阵列中的文件数据不保留)。

通过mdadm工具的-A选项(--assemble)可以重组阵列设备,重组操作需要在/etc/mdadm.conf内有预先定义好的阵列配置、成员盘配置,否则将无法重组,只能手工重建了。

假如各成员磁盘在解散后尚未做其他任何写入,重组为原来的阵列(级别、规模一样)后,其中存放的文档数据还可以继续访问。

以下操作将根据配置文件/etc/mdadm.conf中的设置重组/dev/md0阵列设备:

1.[root@localhost~]#mdadm-A/dev/md0 

//重组预定义的阵列

/dev/md0hasbeenstartedwith4drives.

3.[root@localhost~]#ls-l/dev/md0 

//确认自动生成的设备文件

4.brw-------1rootroot9,010-0818:

40/dev/md0

检查重组后是否能访问原有的文件数据:

1.[root@localhost~]#mount/dev/md0/mymd 

//重新挂载阵列设备

2.[root@localhost~]#cat/mymd/mdtest.txt 

//访问阵列中原有的文件

2.4扩展

在构建软RAID阵列时,如果是使用分区来实现,建议将分区的类型id改为fd,以方便管理员识别。

反之,如果是用多块整磁盘来实现,则没有必要分区及设置类型,因为重建RAID阵列时会抹去分区表设置。

前例中若改用4个分区/dev/sdc1、/dev/sdd1、/dev/sde1、/dev/sdf1来构建RAID5阵列设备,可参考下列步骤。

1)执行fdisk/dev/sdc建立fd分区/dev/sdc1

进入分区界面:

1.[root@svr5~]#fdisk/dev/sdc 

//对磁盘/dev/sdc进行分区

2.DevicecontainsneitheravalidDOSpartitiontable,norSun,SGIorOSFdisklabel

3.BuildinganewD

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 法律文书 > 调解书

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2