银行开发测试云平台架构设计方案.docx

上传人:b****5 文档编号:14398342 上传时间:2023-06-23 格式:DOCX 页数:12 大小:886.14KB
下载 相关 举报
银行开发测试云平台架构设计方案.docx_第1页
第1页 / 共12页
银行开发测试云平台架构设计方案.docx_第2页
第2页 / 共12页
银行开发测试云平台架构设计方案.docx_第3页
第3页 / 共12页
银行开发测试云平台架构设计方案.docx_第4页
第4页 / 共12页
银行开发测试云平台架构设计方案.docx_第5页
第5页 / 共12页
银行开发测试云平台架构设计方案.docx_第6页
第6页 / 共12页
银行开发测试云平台架构设计方案.docx_第7页
第7页 / 共12页
银行开发测试云平台架构设计方案.docx_第8页
第8页 / 共12页
银行开发测试云平台架构设计方案.docx_第9页
第9页 / 共12页
银行开发测试云平台架构设计方案.docx_第10页
第10页 / 共12页
银行开发测试云平台架构设计方案.docx_第11页
第11页 / 共12页
银行开发测试云平台架构设计方案.docx_第12页
第12页 / 共12页
亲,该文档总共12页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

银行开发测试云平台架构设计方案.docx

《银行开发测试云平台架构设计方案.docx》由会员分享,可在线阅读,更多相关《银行开发测试云平台架构设计方案.docx(12页珍藏版)》请在冰点文库上搜索。

银行开发测试云平台架构设计方案.docx

银行开发测试云平台架构设计方案

    

   

银行开发测试云平台架构设计方案

   

 

 

 

 

   

   

 

   

 

 

 

 

【摘要】某银行基于开发测试环境搭建的小型机云平台,为开发测试环境业务系统持续提供PowerVM资源支撑,提高了资源交付的响应效率,降低劳动成本。

未来混合云架构中,基于关键业务系统的数据库和应用通过PowerVC实现浪潮K1Power平台上的AIX和Linux分区的自动化部署,从而达到降本增效的成果,并提高业务系统的稳定性。

本文从基于PowerVC小型机云平台的项目背景及环境搭建技术要点、PowerVC架构设计、及实践经验等方面进行展开,分享了基于PowerVC管理模式下HMC、VIOS、NETWORK、Storage等产品的选型要点,和PowerVM的最佳实践和维护要点。

互联网业务的快速发展给我行科技IT带来巨大的挑战,一方面,我行业务快速发展要求IT响应时间越来越短,开发测试速度越来越快,形成IT响应时间越来越短的要求与现有僵化基础设施、低效IT供给服务模式的矛盾;另一方面,资源池规模越来越大,形成日益增长的管理压力与现有低效匮乏运维管理工具和模式的矛盾。

因此,我行迫切要求信息科技对IT基础架构、服务管理模式进行转型,以支撑业务快速发展,同时提升管理能力效率,减少资源浪费,释放人力资源,降低成本。

我行目前开发测试环境基础资源全部采用虚拟化部署,包括X86服务器采用VMware虚拟化,浪潮K1Power服务器采用PowerVM虚拟化,但是PowerVM旨在实现CPU、MEM、网络、存储IO通道的虚拟化,没有实现存储和SAN网络的自动化管理,为了能够实现Power资源的自动化部署和统一管理,降低人员操作风险和项目实施周期,我行在开发测试环境引进了PowerVC云管理平台,实现资源的自动化部署和管理。

PowerVC旨在简化浪潮K1Power环境中的虚拟资源的管理。

借助PowerVC,可以注册物理主机、存储器提供者和网络资源,并使用它们来创建虚拟环境。

Power®VirtualizationCenterStandard支持较大型企业和更复杂的系统配置。

通过它能够使用功能强大且易于使用的界面来最大限度地利用浪潮K1Power硬件的虚拟化功能。

它具有下列主要功能:

·支持由硬件管理控制台管理的浪潮K1Power主机。

·支持存储区域网络。

·支持每个主机上具有多个VirtualI/OServer虚拟机。

·支持共享存储池。

·支持主机和存储器模板,以帮助您在环境中一致并且可靠地部署虚拟机。

·主机必须是硬件和软件需求中所定义的受支持的浪潮K1Power型号。

·每个主机上必须至少有一个VirtualI/OServer(VIOS)虚拟机。

需要对VirtualI/OServer配置一些特定设置,以支持执行某些PowerVC任务。

·对于由HMC管理的主机,最多支持30个由HMC管理的主机。

·每个主机上最多可以有1000个虚拟机。

·所有这些主机上总共最多可以有6000个虚拟机。

·对于由NovaLink管理的主机,最多可支持200个由NovaLink管理的主机。

·每个主机上最多可以有1000个虚拟机。

·所有由NovaLink管理的主机上总共最多可以有5000个虚拟机。

·当您所在环境由HMC管理的主机和NovaLink管理的主机组成时,所有这些主机上总共最多可以有3000个虚拟机。

·最多可以支持100个主机,其中30个主机可由HMC管理。

PowerVC的架构设计如下图所示(测试环境采用NPIV方式):

一、设计目标

根据基础资源云管理平台的建设目标,我行小型机最终是由云平台通过PowerVC管理节点进行操作。

在云管理平台建成前,分成三步走:

·系统集成阶段,由HMC控制台进行管理;

·在开发阶段,由PowerVC管理节点进行管理;

·在云平台投入运行后,由云管理平台进行管理。

PowerVC具有OpenStack接口,作为一个系统管理软件,它基于OpenStack,操作简便,并提供了OpenStack上标准接口。

PowerVC软件计划安装在VMware虚拟化环境中,创建1台8核16GB的linux虚拟机,用于安装此软件。

PowerVC的特性:

·PowerVC在HMC上再抽象一层,同时可以管理多个HMC。

·操作简洁,管理员无需具有相关领域知识即可进行操作。

·提供更企业级的存储管理。

 

PowerVC的功能:

·创建小型机上虚机并且可以resize、以及为它们attachvolume。

·PowerVC通过HMC自动导入小型机上的虚机。

·监测并管理所有Hosts的资源。

·快速同时创建多个虚机以满足业务需求。

PowerVC搭建的软件条件(安装在一台X86的服务器上即可)

·PowerVC安装盘

·RedHatEnterpriseLinux(RHEL)ServerV7.1(或更高版本)forx86_64 

二、整体架构设计

上图为我行PowerVC的整体部署架构,PowerVC通过HMC管理小型机,并纳管SAN交换机(F96)和SVC控制器,实现存储LUN的自动划分和交换机zone的自动配置,并映射存储给PowerVM虚拟化分区,实现操作系统的自动化部署。

PowerVC可以实现以下操作:

·通过部署映像来创建虚拟机,然后调整大小,并将卷连接到它们。

·导入现有虚拟机和卷,以便它们可由PowerVC来管理。

·监视您所在环境中资源的利用率。

·当过度使用主机组资源时,使用PowerVC动态资源优化器(DRO)能够自动重新均衡主机组资源。

·当虚拟机正在运行时,迁移这些虚拟机(动态分区迁移)。

·捕获恰好按您期望的方式配置的正在运行的虚拟机。

然后,将该映像部署到您所在环境中的其他位置。

·快速部署映像以创建满足您不断变化的业务需要的新虚拟机。

·使PowerVC能够在您部署或迁移虚拟机时,根据您指定的条件自动放置这些虚拟机。

三、运维方案设计

1、以太网络IO通道虚拟化

在设计以太网IO通道时我们主要考虑到实现LivePartitionMobility功能,设计原则如下:

·每个VIOS上部署两块万兆物理网卡,配置Etherchannel来增大网络带宽和提高可用性,然后配置SEA适配器为客户端LPAR提供生产网络服务,部署一块电口网卡配置SEA为VIOC提供管理网络服务。

·配置SEA可采用Share的模式和standby模式,Share模式是通过VLAN的划分分别在两个VIOS负载不同的VIOC上的网络数据流量,而standby模式只能在一个VIOS上负载所有的VIOC的网络数据流量,本次项目中,鉴于网络带宽的需求,建议采用Share的模式来配置SEA。

·根据需求每个VIOC上部署至少两块VEA适配器。

一个配置管理IP(用作DLPAR),一个配置生产IP。

· 

外部交换机上需要做trunk配置。

▲PowerVM虚拟化服务器VIOC以太网络IO通道虚拟(SEAsharing)示意图

架构图说明如下:

每台浪潮K1Power服务器采用2个VIOS,每个VIOS上分配1个4口电口网卡和2个双口万兆光口网卡。

·每个VIOS上1个电口网卡连接两个管理交换机,万兆网卡连接两个汇聚生产交换机。

·网卡首先要配置Etherchannel。

·共享以太网卡(即SEA)用于桥接内部虚拟网络与外部物理网络。

在每一个VIOS内部,创建2个SEA,一个用于生产网段的通信,另一个用于管理网段的通信。

·每个VIOC需要创建2个VEA适配器,用来配置管理和生产IP。

·在交换机上,与VIOS相联的交换机端口需设置trunk。

2、存储IO通道虚拟化

2.1存储IO通道虚拟化目标架构:

vSCSI

磁盘存储IO通道架构设计

下面为虚拟SCSI的设计原则:

·虚拟IO服务器部署两块光纤卡以实现IO路径的高可用。

·客户分区上安装存储的驱动透明地实现双虚拟IO服务器路径的高可用性。

架构示意图:

▲使用SAN存储IO通道虚拟示意图-vSCSI

2.2存储IO通道虚拟化目标架构:

NPIV

虚拟存储IO通道架构设计

下面为NPIV的设计原则:

·NPIV的采用的多口实现高可用。

·通过每个VIOS各映射2个虚拟HBA卡到客户端分区。

·需要配置16Gb的HBA卡,且光纤交换机支持NPIV。

目标架构示意图:

▲存储IO通道虚拟示意图-NPIV

NPIV架构说明如下:

VIOS上分别分配2块16GBHBA卡:

·VSCSI方式是在VIOS上识别管理存储,然后通过虚拟SCSI协议映射到VIOC分区上,NPIV方式是VIOS通过创建虚拟FC卡链接到VIOC的虚拟FC卡,传输采用的是FC的协议,优点是在VIOS采用的协议不消耗VIOS的管理存储的资源,同时可以提高FC的效率,NPIV方式比VSCSI方式性能的线性增长要好。

·每块16GBNPIVHBA卡只用1个端口,两个HBA端口用作连接SVC存储。

·使用NPIV技术将其配置成VFC给虚拟主机使用,使虚拟主机用VFC卡来识别存储。

·交换机和服务器连接的时候可采用上图所示,交叉连接来避免单点故障。

·具体Zoning和driver设置采用NPIV方式,PowerVC会自动在交换机上划分WWPNzone。

 

四、结语

综上即为我行PowerVC架构的方案设计与具体实践,并且结合涵盖了日常运维管理的最佳实践,包括PowerVM虚拟化网络和存储等。

通过开发测试环境搭建PowerVC,原有的资源分区创建从N天减少为数小时,提升IT响应能力,减少IT资源申请排期,减少人工操作风险及工作量,解放人力。

目前已经我行已经实现PowerVC纳管到统一云管理平台上,实现VMware和PowerVM虚拟化分区的自动化部署,并实现权限的统一管理、资源生命周期管理、资源的统一监控等;未来将纳管SDN、F5、防火墙等网络设备,最终实现资源申请的全面自动化。

同时也希望将我行的实践经验分享给大家,互相学习、共同进步,欢迎各位提出宝贵建议!

 

 

 

 

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2