N7K+UCS简单技术方案.docx

上传人:b****4 文档编号:4556991 上传时间:2023-05-07 格式:DOCX 页数:15 大小:867.11KB
下载 相关 举报
N7K+UCS简单技术方案.docx_第1页
第1页 / 共15页
N7K+UCS简单技术方案.docx_第2页
第2页 / 共15页
N7K+UCS简单技术方案.docx_第3页
第3页 / 共15页
N7K+UCS简单技术方案.docx_第4页
第4页 / 共15页
N7K+UCS简单技术方案.docx_第5页
第5页 / 共15页
N7K+UCS简单技术方案.docx_第6页
第6页 / 共15页
N7K+UCS简单技术方案.docx_第7页
第7页 / 共15页
N7K+UCS简单技术方案.docx_第8页
第8页 / 共15页
N7K+UCS简单技术方案.docx_第9页
第9页 / 共15页
N7K+UCS简单技术方案.docx_第10页
第10页 / 共15页
N7K+UCS简单技术方案.docx_第11页
第11页 / 共15页
N7K+UCS简单技术方案.docx_第12页
第12页 / 共15页
N7K+UCS简单技术方案.docx_第13页
第13页 / 共15页
N7K+UCS简单技术方案.docx_第14页
第14页 / 共15页
N7K+UCS简单技术方案.docx_第15页
第15页 / 共15页
亲,该文档总共15页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

N7K+UCS简单技术方案.docx

《N7K+UCS简单技术方案.docx》由会员分享,可在线阅读,更多相关《N7K+UCS简单技术方案.docx(15页珍藏版)》请在冰点文库上搜索。

N7K+UCS简单技术方案.docx

N7K+UCS简单技术方案

1.思科统一计算系统与N7K互联特点描述

在说明思科UCS的主机模式前,先回顾下传统刀片服务器连接到数据中心交换机的模式,下图为传统刀片系统的连接示意图。

传统刀片机箱里的交换机就是2层交换机,提供服务器网卡之间的数据交换,以及服务器网卡和数据中心交换机的之间的数据交换。

传统刀片交换机用生成树协议来侦测和避免环路。

由于采用了生成树协议,导致的结果就是在任意一个给定的VLAN里,只有一个上行链路可以转发数据。

所有连接到该VLAN的服务器只能有一条路径来承载进入或离开系统的数据流。

交换机的每个端口都要实行源MAC地址的学习,并保留一份整个数据中心里该VLAN段内所有服务器网卡的MAC地址表.

思科的UCS系统里的6120XP交换矩阵在对服务器提供超强端口交换能力的同时,运行在主机模式。

和传统交换机有所不同,主机模式不再需要生成树协议,并且可以实现双活路径,在数据中心网络里,可以充分利用N7K和N5K的超强交换能力和扩展能力。

下图为思科UCS连接N7K的示意图:

在主机模式下,6120XP对所有刀片服务器上的网卡提供2层交换,实现诸如万兆线性,不丢包,低延时等交换特性。

与传统刀片交换机相比,主机端口的第一个重要的不同点在于,上行端口的本地交换是禁止的,从一个上行端口进入的数据流不能从另一个上行端口出去。

这个简单的逻辑就防止了在数据中心网络里形成环路,这样,生成树协议因而也就完全不需要了。

在主机端口模式下,由于不再使用生成树协议,所有上行端口都可以转发所有VLAN的数据流,并可提供更多可用带宽。

另一个不同点在于,6120XP只在serverports上需要学习并存储MAC地址表,上行端口不需要。

并且6120XP只需要学习并存储UCS系统内的MAC地址表,如服务器上物理网卡的MAC地址和虚拟机上的MAC地址表。

6120XP具有高可扩展性的优势。

在主机模式下,6120XP的MAC地址表仅随刀片系统的扩容而增加,而不会随着整个数据中心的扩容而增加,长期来看,其扩展性更好。

主机模式不再使用生成树协议,因而从本质上防止了环路的发生。

当6120XP连接到N7K上的端口时,N7K的端口将其识别为主机端口,而不是交换机端口。

而如果将其他刀片机箱内的交换机接入N7K,N7K的端口将其识别为交换机端口,并在双方交换机上用生成树协议来防止环路。

同时,也必然会产生诸如生成树收敛时间和单个活跃路径的问题,在一个大型数据中心里,这样的问题是必须考虑的,并且会影响到包括可用性在内的各个方面。

综上所述,因为思科的UCS运行在主机模式,是刀片服务器连接N7K/N5K的最佳选择。

2.无状态计算

UCS通过抽取服务器配置及外部环境相关的配置属性实现了服务器粒度的虚拟化,实现了计算资源和操作系统及应用的有效解耦-即无状态计算,屏蔽了环境因素带来的不稳定性,帮助用户实现可快速调整,具有自愈能力,能动态扩展的计算基础平台,有效帮助用户大幅减少计划内、外停机时间,实现面向业务的虚拟化计算池。

在UCS体系中,所有和服务器相关的配置属性均备以ServiceProfile的形式保存在内置于6120交换机的管理器中(双冗余保护),可以按需加载到归属于该管理器的任意一个计算节点(最大320个节点),也可以通过导出/导入的形式在不同管理器间传递。

通过无状态计算技术,UCS可帮助用户构建面向业务,可快速调整的可靠计算基础平台。

2.1业务连续性

当任何一台运行关键应用的服务器出现故障时,管理者可快速的把该服务器的ServiceProfile(即相关属性的描述)加载到闲置或运行非关键业务的服务器上,此时接管服务器的所有属性(包括UUID,NIC/FC标识,VLAN/VSANID,引导属性等)均和原服务器一致,用户可直接启动应用无需做任何其他的调整,确保最短时间内恢复业务(参考下列对比图)。

通过无状态计算实现业务快速切换

2.2业务稳定性

大多数业务均会受外界因素(比如突发事件,重大节日)的影响而有起伏,当出现业务峰值时会对服务器产生很大压力,往往导致计算资源成为主要瓶颈而影响到业务的稳定性。

而UCS无状态计算就能够帮助用户快速调整服务器的资源配置,在几分钟内将服务器资源加入到需要的业务中,而在业务峰过去后,又能够快速的释放出来用于其它业务系统。

当服务器出现硬件故障或需要升级微码等维护操作时,均需要停机处理,这就是我们常说的计划内、外停机;通常情况的维护或更换操作均会导致业务的几小时以上的中断;而通过无状态计算我们可以把中断时间缩小到数分钟。

2.3设备的生命周期管理

随着设备使用年限的增加,维护费用会逐年上升,设备会被新设备取代。

而在设备替换过程中,最棘手的就是如何保障应用在迁移过程快速并平稳;通常需要考虑网络,存储,服务器,操作系统,应用配置等多个环节,导致了迁移过程复杂并风险极高。

而CiscoUCS无状态计算技术极大的减少了迁移的复杂度,用户只需要将老服务器的配置定义(ServiceProfile)加载到新服务器上就完成了整个迁移过程,迁移的时间和风险都大幅降低。

3.下一代数据中心级网络架构

3.1三网合一-整合的统一标准的网络

思科首创的FCoE技术(目前已经成为国际标准/INCITST11FC-BB-5)实现了FC流量在10G以太网中传输,整合FC,IP,管理I/O到同一条线缆,减少了适配器、线缆和端口数量,减少了管理单元,单个网卡及单根连线就能将服务器同时联向以太网和FC网络;更加创新的是,整合以太网交换设备和FC网络交互设备为一体,节省了大量网卡和交换设备数量,并简化布线。

在整个UCS的连接体系中,实现了智能全冗余,能够在物理层面自动实现LANTeaming和FCMultipath。

全万兆内外部设计,快速的内部网络交换,使得虚拟机的创建、复制、带业务实时迁移迅速完成。

3.2网络虚拟化

CiscoPolo卡技术从芯片级别虚拟出128块网卡,为每个虚拟机提供专用网卡和HBA卡,在高密度虚拟化的情况下,使用hypervisorbypass,有力释放CPU和内存的能力,实现了虚拟化环境下的有效网络隔离。

CiscoVN-Link技术能在单一物理链路上配置多条虚拟链路。

虚拟链路将虚拟机中的一个虚拟NIC(vNIC)连接到交换平台中的一个虚拟接口。

这使得对于虚拟机的网络连接的管理能像管理物理服务器的物理链路一样进行。

虽然进出虚拟机的所有流量都通过各自不同的虚拟链路传输,但QoS、VLAN和访问控制列表(ACL)等属性能从单一管理点统一管理。

确保在VM迁移过程外界网络无需作任何调整。

3.3网络流控管理

虚拟化环境存在大量不同类型的IO,他们的IO形态和优先级各不相同。

比如VMWARE环境下就有以下多种形式的IO:

ESX和vCenter连接的心跳IO,间歇型小IO但非常重要;ESX和datastore相连接的存储IO,通常为持续性IO,重要性高;VM备份的备份流IO,通常为连续IO,重要性较弱;vMotion引起的迁移IO,通常为峰值IO请求,重要性较高,等等。

在多种IO混杂在一起时,网络控制就变的非常重要。

在思科统一交换平台中以硬件及软件的形式实现了以下控制技术,确保了虚拟化环境下的连接稳定:

基于优先级类别的流控(PriorityFlowControl)

通过基于IEEE802.1p类别通道的PAUSE功能来提供基于数据流类别的流量控制

带宽管理

IEEE802.1Qaz标准定义基于IEEE802.1p流量类别的带宽管理以及这些流量的优先级别定义

拥塞管理

IEEE802.1Qau标准定义如何管理网络中的拥塞(BCN/QCN)

●基于优先级类别的流控在DCE的理念中是非常重要的一环,通过它和拥塞管理的相互合作,我们可以构造出“不丢包的以太网”架构;这对今天的我们来说,它的诱惑无疑是不可阻挡的。

不丢包的以太网络提供一个安全的平台,它让我们把一些以前无法安心放置到数据网络上的重要应用能安心的应用到这个DCE的数据平台。

●带宽管理在以太网络中提供类似于类似帧中继(FrameRelay)的带宽控制能力,它可以确保一些重要的业务应用能获得必须的网络带宽;同时保证网络链路带宽利用的最大化。

●拥塞管理可以提供在以太网络中的各种拥塞发现和定位能力,这在非连接的网络中无疑是一个巨大的挑战;可以说在目前的所有非连接的网络中,这是一个崭新的应用;目前的研究方向主要集中在后向拥塞管理(BCN)和量化拥塞管理(QCN)这两个方面。

4.统一管理-IT整合的关键步骤

CiscoUCSManager是思科统一计算系统的中枢神经系统。

它从端到端集成系统组件,因此系统能作为单一逻辑实体进行管理。

CiscoUCSManager提供一个直观GUI、一个命令行界面(CLI)和一个强大的API,因此它能单独使用,也能与其他第三方工具集成使用。

通过单一控制台,能够全方位管理服务器配置-系统身份、固件版本、LAN设置、SAN设置和网络配置文件等,无需为个系统组件配备单独的管理模块。

CiscoUCSManager内嵌在两个互联阵列中。

CiscoUCSManager全方位配置服务器以及它在系统中的连接。

它能设置或配置唯一用户ID(UUID)、BIOS和固件版本;包括MAC地址、VLAN和服务质量(QoS)设置在内的NIC配置;包括全球名称(WWN)、VSAN、带宽限制和固件版本在内的HBA配置;以及包括VLAN、VSAN、QoS和以太通道设置在内的上行链路端口配置。

在最多40个机箱,320台服务器的规模时,都可以使用同一个界面来管理所有服务器(包括设置启动顺序、启动磁盘策略、VLAN和VSAN)和网络。

UCSManager可以和多个VMWAREvCenter无缝关联,并可在UCSManager管理平台直接查询VM状态。

5.扩展内存技术

虚拟化将更多关注服务器如何拥有更多以及更经济的内存配置。

虽然高性能的IntelXEON系列CPU的虚拟化技术提高了虚拟机性能,但现在服务器需要更大内存来充分利用服务器的处理器。

提高虚拟系统中的虚拟机密度的传统方式是,购买更昂贵、更大型的四路服务器。

但这种方法既提高了投资和运营开支,又没能实际解决如何为两路服务器提供更为经济高效的内存的问题。

思科扩展内存技术提供了一种具有极大潜力、经济高效的方法,与其他方式相比,能以更低TCO提高虚拟化密度,使IT机构能够凭借更少资源完成更多任务。

从处理器的内存通道角度来看,该项技术将四个物理上独立的DIMM映射为单一逻辑DIMM(参见下图)。

这一映射支持拥有48个DIMM插槽的扩展内存服务器,而采用相同处理器的传统服务器和刀片系统最多只能配备12个最高性能插槽,或18个较低性能插槽。

 

 

思科扩展内存服务器中的48个DIMM插槽能插入2、4或8-GBDIMM,为XX公司提供了平衡处理能力、内存容量和成本的极高的灵活性。

●低成本选项使用低成本的8-GBDIMM来提供高达384GB的内存,而不必像使用相同处理器的其他服务器那样,为获得高内存容量而使用8-GBDIMM。

●大内存选项能够为需要最大内存的工作负载提供支持。

思科扩展内存服务器在使用8-GBDIMM时内存高达384GB,实现了采用IntelXeon5500系列处理器的双路服务器的最大内存。

6.UCS对VMWARE环境的优化总结

1.无状态计算对VMWARE环境的优化

UCS能够对VMWARE提供良好的支持,同时对一些虚拟化技术难以支撑的场景提供了支持。

场景

VMWARE

UCS

应用在线迁移

vmotion,业务不中断迁移

支持vmwarevmotion

服务器破坏情况下的迁移/接管

不支持

快速接管(分钟级)

大数据量业务迁移

慢速,对业务影响大

快速迁移(分钟级)

设备替换

部分支持

快速替换

2.网络技术对VMWARE-View环境的优化

VmwareView环境下,需要把多个虚拟桌面通过网络对外进行发布,不同的虚拟桌面有独立的数据上传和下传连接,同时虚拟机之间,还需要独立的vMotion、kernel、HA及存储访问通道。

思科通过独有的虚拟网卡技术及网络流控、Qos技术确保这些连接能够有序、高效地共享10G高带宽网络,做的按需分配,有序运行。

全线速10G融合网络,比传统环境下的vMotion效率大幅提升,并行度提升一倍,速度提升50-75%。

(VMWAREWorld2010)

VN-LINK及网卡虚拟化技术将网络交换端口的管理推进到vmware环境下的vNIC,使得虚拟机迁移过程无需考虑网络因素,流控技术确保整个vmware环境更加平稳。

CiscoPolo卡能够独立提供网络虚拟化能力,大大减少了虚拟化环境下服务器CPU消耗,通过和VMWARE结合的by-pathHypervisor技术能够比传统方式提升30%的网络流量支持。

3.管理的简化

UCSManager可以对320个计算节点进行管理,UCSManager可以和多个VMWAREvCenter无缝关联,并可在UCSManager管理平台直接查询VM状态。

4.扩展内存技术

UCS通过扩展内存技术实现了低密度DIMM场景下大内存的供给,有效的分散了内存中热点数据,对应VMWARE环境下View,web,数据库等需要数据常驻内存的应用有大幅的提升。

7.附录:

∙总结

下表给出了CiscoUCS系统和普通刀片服务器之间的区别,标识为红字的部分为传统设备无法实现的功能或性能。

交换设备

DCE标准

速率

端口延时

FCoE

不丢包设计

End-Host模式

双活链路

是否需要OS介入故障切换

故障切换是否引起应用中断

一条链路上任意设备故障是否能实现切换

CiscoUCS6120XP

支持

线性万兆

3.2微秒,下一版本1.6微秒

支持

支持

支持

支持,服务器上2块网卡均活跃,简单配置

不需要,完全硬件功能

不会

传统刀片交换机

N/A

支持,但不是全部型号

20-200微秒级,根据包的大小不同

不支持

不支持

不支持

不支持,只能做网卡绑定,同一时间只有一块网卡工作

需要,故障时由OS做网卡切换

不能,仅在机箱内交换机损坏时才切换

刀片管理

管理软件所在位置

全局管理

刀片服务器跨机箱调用

网络设置

SAN设置

刀片配置文件

自动备机

自动firmware升级

状态监测

设置监测阀值

开放API供第三方软件使用

模拟实现组织架构,或按应用将服务器分类

CiscoUCS

内置并冗余

支持,单一域可管理到最多320台

支持,刀片的物理位置无关,可随意调用

支持,

支持

支持,并可全局使用

支持

支持,无需OS参与,新刀片插入机箱能自动更新firmware

全部设备,包括刀片,机箱,网络

支持,用户可自定义阀值,包括服务器,网络和SAN的各项参数

支持,并提供各式模板,软件开发商简单编码即可实现诸如根据CPU温度阀值来远程开关机

支持,独特的组织架构模型可方便用户管理大型数据中心

传统刀片系统

需要另设管理服务器,冗余需要第二台服务器

以刀片机箱为单位管理

不支持。

不在一个管理域里的无法跨机箱调用

不支持,需进入单独的网络管理软件

不支持,需进入单独的SAN管理软件

部分支持,超过4个刀片机箱即无法调用

不支持

不支持,需要在OS上装agent,新刀片无法自动更新firmware

仅刀片和机箱,网络需单独软件检测

不支持

不支持,只能使用各厂商的管理软件

不支持

刀片机箱及刀片

系统全冗余规模

电源风扇冗余

管理模块

远程KVM等

扩容

刀片服务器内存

刀片服务器网卡

硬盘

SANboot

RAID卡

RAID卡缓存

CiscoUCS

2台6120XP即可实现全系统的冗余

支持

无需,所有管理功能由6120XP实现

支持,由6120XP实现并支持冗余,无需KVM模块

新刀片机箱直接联入6120XP即可

2路刀片最多支持384G内存

支持虚拟网卡,支持CNA融合网卡

2块或4块,热插拔,可在serviceprofile里统一设置RAID模式

支持,serviceprofile里简单配置

集成

最大1G

传统刀片系统

需在每个刀片机箱实现LAN和SAN的设备冗余,还需要机箱外LAN和SAN设备的冗余

支持

标配一个,冗余需再配一个

支持,冗余需要第二个KVM模块,一旦损坏就无法访问服务器

新刀片机箱需做复杂设置,并需参考以前的设置

2路刀片最多支持144G内存

传统网卡加HBA卡的方式,无虚拟网卡

2块或4块,热插拔,需在每台机器BIOS里设置RAID模式

需进入每台刀片服务器的BIOS里设置

集成

最大512M

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 经管营销 > 经济市场

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2