完整word版DS5000安装配置手册v10.docx
《完整word版DS5000安装配置手册v10.docx》由会员分享,可在线阅读,更多相关《完整word版DS5000安装配置手册v10.docx(38页珍藏版)》请在冰点文库上搜索。
![完整word版DS5000安装配置手册v10.docx](https://file1.bingdoc.com/fileroot1/2023-5/23/69505dee-b01d-438b-a32f-ed3386b2c897/69505dee-b01d-438b-a32f-ed3386b2c8971.gif)
完整word版DS5000安装配置手册v10
DS5000安装配置手册v1.0
本文档仅供研发内部使用,如需在生产环境使用,请先对指导书各步骤进行验证。
一、DS5000磁阵配置
1.磁盘规划
本次磁阵配置为16块硬盘的DS5020,采用RAID5建两个Array。
每个array包含8个盘。
每个array上建一个lun,分别是Omc1和Omc2。
在主机上分别对应为hdisk2、hdisk3。
分别将Omc1和Omc2分配到控制器A、B,以分担负荷。
LUN名称
(在StorageManager上)
LUN名称(在操作系统上)
LUN大小(GB)
所在RAID组
RAID组类型
磁盘控制器
Omc1
hdisk2
200GB
Array1
RAID5
A
Omc2
Hdisk3
200GB
Array2
RAID5
B
2.连接磁盘阵列
DS5020后板示意图其中Ethernetports(以太网口)用于跟PC连接,配置磁盘
Serialport串口
Ethernetports以太网口
Dual-portdrivechannel扩展柜接口
FibreChannelhostchannels主机接口
DS5020有两个控制器:
ControllerA和ControllerB。
每个控制器有一个网口,ControllerA的网口默认IP地址为192.168.128.101/255.255.255.0,ControllerB的网口默认IP地址为192.168.128.102/255.255.255.0。
控制台需要配置和DS5020控制器同一网段的IP地址,用来连接DS502,
此网段要求是一个独立的网络,不要加入其它的机器,以免IP地址变更。
3.使用存储管理软件系统
在DS5000的随机光盘里面带有StorageManager安装光盘,可以在主流操作系统如aix/hp-ux/solaris/linux/windows上安装。
在PC机上选择“开始>所有程序>StorageManager10Client>StorageManager10Client”。
StorageManager启动后,出现如图所示的窗口。
StorageManager启动
图中的提示框表明StorageManager尚未连接任何磁盘阵列,需要StorageManager自动连接或用户手工连接磁盘阵列。
选择“Yes”将由StorageManager自动连接磁盘阵列。
选择“No”将由用户手工连接磁盘阵列。
这里建议选择“No”。
选择“No”,如图点击鼠标右键,选择AddStorageSubsystem
系统弹出“AddStorageSubsystem”对话框,如图3-12所示。
图3-12
在“FistController”文本框中输入ControllerA的IP地址192.168.128.101,在“SecondController”中输入ControllerB的IP地址192.168.128.102。
单击“Add”。
StorageManager开始连接磁盘阵列,如图3-13所示。
Connecting
图3-13
注意,必须保证192.168.128.101、192.168.102两IP地址与PC正常通讯。
连接成功后,系统弹出“StorageSubsystemAdded”,询问用户是否需要连接另一个磁盘阵列,如图3-14所示。
StorageSubsystemAdded
这里我们不需要连接另一个磁盘阵列。
单击“No”。
出现如下图所示的窗口。
可以看到刚连接成功的磁盘阵列。
StorageManager
认到存储为StorageSubsystemUnamed,修改存储的名字为DS4700A(此处的名字建议为DS5020A),操作如下,右击鼠标,点击rename
输入新的名字,点击ok
出现如下界面。
点击Yes
出现如下界面,双击DS4700A
如果出现如下的界面,你可以选择设置密码,如果不设置,就选No。
4.创建Array和LUN
选择TotalUnconfiguredCapacity,点右键,选择CreateArray功能项,进入下图
输入Arrayname,选择Manual,进入下面的
图示
选择RAIDlevel为RAID5,将要选择的磁盘Add到selectdrives(slot表示磁盘所在槽位)进入如下界面
点击CalculateCapacity,点击finsh,Array创建成功。
系统会提示你是否创建LUN,你可以选择YES,进入创建LUN的创建。
5.创建第一个LUN
鼠标单击创建好的ArrayRaid5-2下面的FreeCapacity,点击CreateLogicalDrive,进入如下图示:
点击下一步,进入如下图示:
示例创建的是LUN名为omc1,大小为700GB,然后选择Customizesettings,点击Next,进入如下图示:
选择LogicalDriveI/Ocharacteristicstype为Database,Preferredcontrollerownership为SlotA(下一个lun选SlotB,以进行负荷分担;注意配置端必须与被选择的Slot连通,否则会失败)点击Next,进入如下图示:
选择Hosttype为AIX,再选择Maplaterusingthemappingsview。
点击Next
上图提示你是否创建另外一个lun,需要点击Yes,不需要点击No,创建方法与之前一样。
暂时我们就创建一个示列,我们在此选择No
点击OK,此时可以看到LUNomc的状态为
次状态为系统正在格式化,格式化完成后状态为:
6.增加LUN
如要创建多个LUN,选中FreeCapacity,单击右键,选中CreateLogicalDrive功能项,增加新的LUN。
增加LUN操作跟前面增加第一个LUN步骤一样。
7.创建hotspare
在storagemanager软件中点击Phyical,点击一块未使用的空盘,鼠标右键-->hotsparecoverage,见下图:
选择Manuallyassignindividualdrives.点击ok完成。
表示hotspare硬盘,
表示已使用硬盘,
表示已未使用硬盘。
查看hotspare是否起作用,操作如下:
Drive–>HotSpareCoverage
选择View/changecurrenthotsparecoverage
看到arrayprotected:
yes说明此raid收hotspare保护。
二、将LUN映射给主机
1.将磁盘柜与主机正确连接
DS4700的联接示意图
2.Lun与主机映射步骤:
1.在主机上输入cfgmgr–v命令,回车,命令执行完后,再次运行到storagemanager软件中
2.查看主机上的光纤卡的WWN,命令如下:
lsdev–Ccadapter|grepfcs(确认机器配置了几块光纤卡)
lscfg–vlfcs0(查看fcs0光纤卡的wwn和位置)
[root@p550B/]#lscfg-vlfcs0
fcs0U78A0.001.DNWHXWN-P1-C4-T1FCAdapter
PartNumber.................10N8620
SerialNumber...............1C948086F3
Manufacturer................001C
ECLevel....................D76625
CustomerCardIDNumber.....5759
FRUNumber..................10N8620
DeviceSpecific.(ZM)........3
NetworkAddress.............10000000C9955646
(P1表示主机,C4第四个IO插槽,T1表示上面的一个光纤口)10000000C9955646(wwn)
3.用Storagemanage软件登录到存储上,点节mapping,右键点击Defaultgroup-->define-->host,填写host名为p550B,点击Next
进入如下界面,点击Refresh,可以看到wwn,选择一个对应主机的wwn,alias的名字为p550B_fcs0,点击add,另外一块卡同样方法操作,名字为p550B_fcs1
点击Next,进入如下图示:
选择hosttype为AIX。
点击Next
选择No,至此就完成了一台主机的映射。
另外一台主机同样操作。
4.如果需要两台主机共享一台DS4700上的LUN,我们再创建一个HostGroup,之后,讲p550A和p550B直接添加到此HostGroup。
之后的lun映射对象选择创建的HostGroup。
步骤如下:
右键点击Defaultgroup-->define-->hostgroup,填写hostgroup名为powergroup,将所需要添加到powergroup中的host都add到powergroup,
点击ok,hostgroup创建完成。
5.讲lun映射到主机
选择Mappingundefinedmappings,选择omc1,右击选择definedadditionalmapping
选择powergroup,lun建议从2开始,选定omc1,点击add。
6.在主机端认出lun。
Ø原来主机的磁盘如下:
[root@p550B/]#lspv
hdisk000c15b868a97d3bcrootvgactive
Ø现在再在主机上输入cfgmgr–v命令后,再用lspv命令看到如下结果
[root@p550B/]#lspv
hdisk000c15b868a97d3bcrootvgactive
hdisk1noneNone
Ø初始化磁盘
命令chdev–lpv_name–apv=yes,初始化后,会显示一串序号,如
[root@p550B/]#chdev-lhdisk1-apv=yes
hdisk1changed
[root@p550B/]#lspv
hdisk000c15b868a97d3bcrootvgactive
hdisk100c15b86ec33e634Nonenone
3.在主机上使用lun创建VG,LV,FS
Ø建立VG
mkvg-S-y'datavg'-s'128''-n'hdisk2hdisk3
-s128指定物理分区大小PPSIZE=128MB
往VG加磁盘
如需要另外再加盘hdisk4加入datavg
#extendvgdatavghdisk4
Ø创建LV,
【重要说明】
注意根据规划调整创建lv大小的值。
LV容量=PP个数*PPSIZE
lsvgdatavg命令输出中有PP的大小
VGSTATE:
activePPSIZE:
128megabyte(s)
/usr/sbin/mklv-ydata1lv-tjfs2-ex-x20000datavg18hdisk2hdisk3
-ydata1lv是lv的名称
-tjfs2是lv的类型
-s条带化为128K,条带化在hdisk2和hdisk3上
-ex表示一个讲lv最大化分布到hdisk2和hdisk3上
-x20000表示一个lv最大含lp的个数(这个可动态调整)
Ø创建jfs2的文件系统
crfs-vjfs2-ddata1lv-m/datafile/u01–A
用df命令来查看,文件系统是否已经挂载。
root@p550B/]#df-g
FilesystemGBblocksFree%UsedIused%IusedMountedon
/dev/hd42.001.7712%154044%/
/dev/hd26.002.8154%619059%/usr
/dev/hd9var2.001.6916%74792%/var
/dev/hd35.000.8284%135687%/tmp
/dev/fwdump1.501.501%91%/var/adm/ras/platform
/dev/hd130.0014.2253%346062%/home
/dev/hd11admin2.002.001%51%/admin
/proc-----/proc
/dev/hd10opt4.003.796%88681%/opt
/dev/livedump0.250.251%41%/var/adm/ras/livedump
/dev/data1lv4.004.001%41%/datafile/u01
4.参数调整
系统参数:
chdev–lsys0–aiostat=true–P
chdev–lsys0–amaxuproc=3000–P
chdev–lsys0–amaxpout=33–aminpout=24(注意该项在AIX6.1上默认值分别为8193、4096,不需要调整)
队列设置:
默认hdiskX上队列长度为10,fcsX上长度为200;对于随机访问性应用,一般建议适当增大:
chdev–lhdiskX–aqueue_depth=16–P
chdev–lfcsX–anum_cmd_elems=256-P
其中X为磁盘或光纤卡的逻辑序号。
附录
附录一:
条带化建议
一般建议同时使用软件以及硬件方式条带化,以获得最大性能加速:
附录二:
-e’x’选项与-S选项说明
本case中采用了-S1M的方式建卷。
这两个选项有效的前提是磁阵提供了多个独立的LUN,最好各个LUN对应的硬盘集合没有交集,否则均衡分布LUN之间流量没有实际意义.
mklv-e'x'建的逻辑卷(对应于smittymklv时interpolicy选择maximum)按PP进行条带化,PP大小可以在建卷组(volumegroup)时指定,一般默认64MB或者128MB.mklv'-SSize'建的逻辑卷按Size大小条带化,这样的条带分布更加均匀,但是计算量较多,对CPU的消耗一般略大一些.需要根据应用的情况而定,如果应用瓶颈在CPU,则建议使用-e’x’,如果在磁阵,则建议使用’-SSize’,如’-S1M’.
目前AIX5.3后续版本已支持4K~128MB的条带大小,但需要直接使用命令创建,对于这种情况建议使用1M大小的条带,这样基本能够达到CPU使用率与磁阵性能的平衡.(ORACLE一般的推荐是超过DB_BLOCK_SIZE*DB_FILE_MULTI_BLOCK_READ_COUNT,此值一般在64K左右).
但是需要注意的是,如果使用RAID0方式对后续扩容的灵活度会有一定程度的影响.如果使用-e’x’则增加任意数量的卷之后直接reorgvg就可以完成调整;但是条带化方式增加卷必须是条带宽度的倍数,并且没有直接的调整方式,而且扩容后的IO均衡性会受到一定程度的影响.
注意:
超过128K的条带大小在低版本AIXsmittymklv中不能显示,必须手工使用mklv命令创建.在AIX5.2中条带大小不能超过LTG(LogicTrackGroup)大小,在AIX5.3中不能超过PP的大小。