医疗信息平台系统建设方案12.2.doc

上传人:恰似****客 文档编号:18938349 上传时间:2024-02-25 格式:DOC 页数:144 大小:8.94MB
下载 相关 举报
医疗信息平台系统建设方案12.2.doc_第1页
第1页 / 共144页
医疗信息平台系统建设方案12.2.doc_第2页
第2页 / 共144页
医疗信息平台系统建设方案12.2.doc_第3页
第3页 / 共144页
医疗信息平台系统建设方案12.2.doc_第4页
第4页 / 共144页
医疗信息平台系统建设方案12.2.doc_第5页
第5页 / 共144页
医疗信息平台系统建设方案12.2.doc_第6页
第6页 / 共144页
医疗信息平台系统建设方案12.2.doc_第7页
第7页 / 共144页
医疗信息平台系统建设方案12.2.doc_第8页
第8页 / 共144页
亲,该文档总共144页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

医疗信息平台系统建设方案12.2.doc

《医疗信息平台系统建设方案12.2.doc》由会员分享,可在线阅读,更多相关《医疗信息平台系统建设方案12.2.doc(144页珍藏版)》请在冰点文库上搜索。

医疗信息平台系统建设方案12.2.doc

医疗超融合平台系统建设方案

1.1超融合平台系统建设方案

1.1.1设计概要

综合需求分析,结合目前医疗行业数据中心的演进方法论及最佳实践,超融合私有云的方式来建设,使用扩展能力强,功能丰富的私有云超融合基础架构方案,来满足医院业务系统高可靠性、高可用性、业务连续性、数据安全、数据备份、数据及应用容灾的需求。

超融合企业云平台主要是从资源池化,按需分配,动态云计算平台切入,通过云计算技术充分利用超融合基础设施资源,提供基于超融合基础设施的基础设施即服务的云计算服务。

1.1.2设计原则

在方案设计中我们将遵循以下总体原则:

以医院业务需求为导向,超融合架构最终还是要为医疗业务服务的,因此在架构设计上一定要以医疗业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。

遵循医疗行业标准医院大部分业务系统都是面向社会和公众的,在医院基础架构建设时,应符合国际、、医疗卫生行业标准、规范和医院自身的发展规划。

提高资源利用率现已经部署了大量的服务器,资源使用率低是较突出的一个问题。

要充分发挥超融合架构的这一最大的特点,在保证性能的前提下进行合理设计。

在同一设备中合理分配计算、存储和网络等虚拟化资源,最大程度的提高服务器设备的利用率。

系统扩展性

在超融合架构中,可以进行横向灵活扩展,使医院的IT基础架构成为一个动态、灵活、具有弹性的IT基础架构。

要考虑在医疗业务系统实时运行过程中,计算资源和存储资源的同时动态调整和扩展的问题,避免对现有生产系统产生影响。

安全可用性

业务系统的高可用性和安全性是医院业务得以持续运行的保障。

在超融合架构设计中,应该以软件定义技术为主,结构超融合的分布式架构的特点,解决系统单点故障问题和性能瓶颈等问题,在满足业务系统可用性的同时保证医院系统运行安全和数据安全。

1.1.3超融合架构总体设计

超融合架构在数据中心,以软件定义为解决方案,使用通用的X86服务器+虚拟化软件建设计算、分布式存储和网络等资源池,极大地简化了数据中心的基础架构。

而且通过软件定义资源池为分布式架构,可以实现无单点故障、无单点瓶颈、横向自动弹性扩展、性能线性增长等能力。

通过统一的云平台来管控超融合基础设施,来管理调度计算资源、存储资源、网络资源。

在物理层,选择通用的X86服务器和交换机。

在软件定义层,采用超融合AStack来实现软件定义计算、软件定义存储、软件定义网络。

在管理层,采用AStack云平台来实现对整个基础设施的统一管理调度运维。

具体设计如下:

搭建超融合系统平台

在数据中心机房新建一套超融合系统集群,并对医院现有的业务系统进行评估,按照评估结果,将适合的业务系统和数据迁移至超融合平台,打破原有竖井式的纵向扩展架构。

为了保证HIS/PACS等核心业务数据库的性能和数据的实时性,需要对先对超融合做详细的POC测试,确定满足条件后再进行迁移。

对原有设备进行淘汰和利旧整合

建议淘汰的设备:

服役超过5年以上的服务器,不建议继续使用,可以进行淘汰处理,避免潜在的安全隐患,同时还可以降低整体能耗成本。

利旧整合的设备:

可以利旧整合的服务器主要有两种解决方案。

首先,可以用于开发测试,但是需要注意的是,对于这部分资源最好单独建设一个资源分区,不要和生产资源混合在一个资源池里,做好安全隔离,避免互相影响。

其次,可以选择部分性能比较好,未过保修期(通常服务器保修年限为三年)且具有整合价值的服务器,然后部署超融合系统,加入到超融合系统群集当中。

但是仍然建议单独设计一个资源池,不要与新采购的超融合系统混用一个资源池,同样做好安全隔离。

因为老旧的服务器,即使部署了相同超融合系统软件,由于其CPU型号比较旧,而且型号不统一,很难和新采购的超融合系统设备相互兼容,不建议部署在一个资源池。

建立统一的云管理平台云管理平台主要负责对资源的管理、弹性调度以及操作维护等综合管理功能,是云平台管理的核心,在同一个web界面提供云资源管理、云运维管理和云服务管理的功能。

在采购新的超融合系统以后,要求必须能够和现有的云管理平台兼容,能够进行二次开发和对接。

或者直接采用超融合系统的云管理整合原有的虚拟化资源,但是绝不能同时出现多个云管理平台,这样非常不利于资源的统一管理和调配,给医院的信息化管理带来很大的困难。

1.1.4超融合架构业务设计

医院业务系统分析主要是对现有医院业务系统进行梳理,对医院的业务系统进行评估和分类,选择适合部署在超融合系统之上的系统。

主要包括以下几个方面的工作:

对业务系统进行分析,选择适合迁移到超融合架构的应用。

建议优先从非核心的系统开始尝试部署,然后逐渐扩展到其他核心业务系统。

评估并计算系统资源的使用量,包括计算、存储、网络和安全资源等。

根据分析出的需要迁移的业务系统资源量,评估现有机房的物理环境和网络环境,是否能够满足迁移后的超融合系统部署需要。

1.1.4.1业务迁移分析

医院业务系统主要分为四大类,分别是:

行政管理系统。

包括人事管理系统,财务管理系统,后勤管理系统,药库管理系统,医疗设备管理系统,门诊、手术及住院预约系统,病人住院管理系统等。

医疗管理系统。

也是核心业务系统,主要包括门诊、急诊管理系统(HIS),影像文件系统(PCAS)、病案管理系统,医疗统计系统,血库管理系统等。

决策支持系统。

包括医疗质量评价系统,医疗质量控制系统等。

各种辅助系统。

如医疗情报检索系统,医疗数据库系统等。

以上业务系统,除了大型三甲医院的核心HIS和PACS数据库外,其实大多数医院的系统都适合迁移至超融合系统,对于业务系统的最终选择,还是需要分析其运行和使用的现状,综合进行判断。

1.1.4.2业务资源分析

对于不同的业务系统,需要划分不同等级的资源来进行规划。

对于医院核心的HIS等业务系统,采用全闪存的超融合来进行部署。

对于PACS等大容量系统,采用大容量一体机来进行部署。

大容量超融合一体机支持平滑横向扩展,数据支持3副本。

对于其他通用的业务系统,采用通用超融合一体机来部署。

1.1.5超融合云平台基础功能设计

1.1.5.1计算功能特性

超融合平台基于异构虚拟化技术,原生支持KVM虚拟化技术,并支持VMwarevCenter虚拟化接管功能,满足医院用户数据中心异构虚拟化需求,适应不同重要性的业务部署。

通过虚拟化技术,超融合为用户提供云主机的基础运行环境。

用户获得云主机后,可安装合适的业务应用系统,并通过Web界面可对云主机执行众多的生命周期管理操作,包括停止、启动、快照、克隆和加载/卸载数据云盘等操作。

云主机包含vCPU、内存、系统云盘、数据云盘和虚拟网卡等资源服务。

1.1.5.2CPU虚拟化

从架构上看,传统的X86平台并不是为支持多操作系统并行而设计的。

因此CPU厂商如AMD和Intel都需要重新设计CPU,增加虚拟化特性,以解决问题。

超融合采用开源KVM技术,已经开始充分利用芯片厂商在处理器架构中构建的硬件辅助功能,以提高系统运行效率,降低Hypervisor带来的系统开销。

超融合将物理的CPU逻辑虚拟出vCPU,使得在物理硬件之上同时运行多个操作系统成为可能。

KVM依靠CPU硬件辅助虚拟化技术,KVM本身分为两部分,分别是运行于Kernel模式的KVM内核模块和运行于User模式的Qemu模块,这两块运行于CPU的根模式;虚拟机操作系统运行于CPU的Guest模式也就是非根模式,特权指令受到KVM的严格监控,如果运行到特权指令,则会自动跳转到根模式。

利用硬件辅助虚拟化技术的支持,KVM中的每个虚拟机可具有多个虚拟处理器vCPU,每个vCPU对应一个Qemu线程,vCPU的创建、初始化、运行以及退出处理都在Qemu线程上下文中进行,需要Kernel、User和Guest三种模式相互配合。

1.1.5.3内存虚拟化

为了实现内存虚拟化,让虚拟机使用一个隔离的、从零开始且具有连续的内存空间,KVM引入一层新的地址空间,即虚拟机物理地址空间(GuestPhysicalAddress,GPA),这个地址空间并不是真正的物理地址空间,它只是宿主机虚拟地址空间在虚拟机地址空间的一个映射。

对虚拟机来说,虚拟机物理地址空间都是从零开始的连续地址空间,但对于宿主机来说,虚拟机的物理地址空间并不一定是连续的,虚拟机物理地址空间有可能映射在若干个不连续的宿主机地址区间。

1.1.5.4虚拟机管理

批量创建虚拟机根据虚拟机规格创建单台/多台虚拟机,可以同时选择云盘挂载,支持手工指定集群、宿主机、主存储,支持注入用户自定义信息如密码、用户创建、SSHkey。

生命周期管理

超融合支持虚拟机的全生命周期管理。

支持按镜像创建虚拟机,也可以根据ISO自定义虚拟机操作系统;支持对虚拟机配置进行调整,如在线调整CPU、内存,添加虚拟磁盘,添加虚拟网卡等;支持虚拟机挂起和恢复,虚拟机挂起时,会释放虚拟机的计算资源,将虚拟机内存数据保存在存储磁盘,执行恢复操作时再从存储磁盘读回虚拟机内存。

支持删除指定虚拟机,删除时将解绑IP,回收虚拟机的相关资源;支持回收站功能,删除的虚拟机将在回收站保留一定的时间,防止误删。

虚拟机克隆虚拟机在线克隆,不影响正在运行的业务,可以选择克隆数量进行批量克隆,可以选择主存储和亲合组。

虚拟机镜像

超融合支持在线将虚拟机创建为镜像,并通过镜像库方式来管理镜像,创建镜像可以选择不同的镜像库。

支持将虚拟机镜像导出下载。

虚拟机快照

超融合支持对虚拟机进行快照,对磁盘当前时间点的数据进行冻结。

快照适用于一些有风险的操作,比如虚拟机操作系统升级、软件升级,如果发生故障可以进行回退,相当于有反悔的机会,更好的保证业务的正常运行。

加载/卸载云盘支持在线为虚拟机加载/卸载云硬盘,无需停机,不影响业务的运行。

操作系统可以立刻识别到云硬盘,添加完毕后马上可以使用。

修改计算规格支持在线修改虚拟机的计算规格,增加vCPU和内存数量,即纵向扩容。

当监控到虚拟机资源利用率较高时,可以在线修改虚拟机的计算规格,增加虚拟资源,降低资源的利用率,保证业务运行性能。

控制台密码支持设置控制台密码,在打开云主机控制台时加一层防护,使得云主机的访问更加安全,防止随意打开控制台随意操作虚拟机的行为。

修改云主机密码

通过云主机内置的agent,可以在线修改云主机账号密码,防止用户因遗忘密码而无法登陆云主机。

存储迁移云主机支持关机状态下跨共享存储的数据迁移,保证更好的数据连续性,目前支持跨Ceph存储迁移、跨NFS存储迁移。

BIOS模式

云主机BIOS支持legacy和UEFI两种模式,可以更好地适应操作系统对底层硬件的需求。

1.1.6存储功能特性

超融合集成ASDS分布式块存储,同时支持对接外置存储,包括SAN、NAS等。

ASDS是基于开源Ceph优化并产品化的医院版分布式存储,性能方面比社区版Ceph高出3倍以上,满足高IO吞吐业务场景,支持对象存储、块存储访问类型。

它提供一个单一的存储平台,可以处理对象、块的数据存储。

它的高扩展性可以达到PB级,它还拥有高容错性和高一致性数据冗余机制。

使用Ceph作为存储方案,其中所有服务器的SSD硬盘组建独立的SSD存储池Pool,所有服务器SAS硬盘组建为独立的SAS存储池Pool。

在该场景下,同一个Ceph集群里存在传统机械盘组成的存储池,以及SSD组成的快速存储池,可把对读写性能要求高的数据存放在SSD池,而把其他备份数据等一些要求低的数据存放在普通存储池,提升读写效率。

ASDS支持多存储池特性,可定制构建高性能存储池(SSD)和大容量存储池(HDD),各存储池的IO访问隔离,并独自扩容伸缩。

不同速度的存储池,满足不同业务系统对存储访问的性能与容量要求。

ASDS企业级分布式存储产品既具备有互联网化高度可扩展性的基因,又有着医院关键业务友好特性,作为一款成熟存储软件产品,其优势特性主要体现在以下方面:

持续线性增长的高性能

ASDS企业级分布式存储的核心代码架构基于业内领先的强一致性哈希算法,在关键环节进行了深度代码优化,包括对网络、磁盘处理效率、数据分层与缓存机制等,使得存储系统能够胜任高并发、高输入输出效率的需求。

与主流NVMe闪存技术相结合,通过SPDK新协议栈优化IO路径,突破单节点数千IOPS的瓶颈,通过配置不同性能的通用硬件,无缝适应冷热数据切换等各种应用场景的性能需求。

服务质量保证分布式存储系统是一个复杂的集群化系统,每个层次、部件都可能涉及到不同厂商的软硬件产品,节点掉电失效、硬盘故障、网络抖动等数据中心的常态故障常常导致分布式存储集群处于长久或暂时的数据不一致状态,ASDS企业级分布式存储提供了后台自动一致性数据校验功能。

同时ASDS企业级分布式存储支持数据恢复QoS(QualityofService)设置,对于长时间段的副本丢失,系统需要数据重建恢复处理,用户可以对数据恢复进行多种策略选择,在进行恢复保障数据一致的同时,合理调整其优先级以适配不同业务性能。

支持块服务的在线卷级QoS设置,用户可对存储卷设定IOPS阈值限制,以及性能突发状况时的限制,以保证存储各客户端取得一致的性能体验。

支持对存储卷QoS进行实时更改,更好地帮助管理员和上层应用开发人员动态调配性能资源,以应对潮汐式的应用场景。

靠性大幅度增强

ASDS企业级分布式存储在具备先进功能特性的同时,特别对系统的可靠性进行了特定优化。

借助研发团队丰富的生产经验,产品不仅规避了传统分布式存储系统中对可靠性造成威胁的诸多潜在缺陷,而且对关键IO路径和管理控制模块皆进行了冗余设计。

同时,通过拓扑规划功能对存储集群支持多种安全级别的数据安全保护,如支持服务器级别、机架级别、数据中心级别的故障域。

使存储系统可靠性及持续在线特性得到有效保证。

易用性、可管理性极大增强阻止医院客户采用分布式存储系统的另一个重要原因是运维成本的不可控性。

ASDS企业级分布式存储丰富的可视化管理功能和体贴的管理流程帮助用户解决了这一难题——基于Web的可视化安装和扩容使得用户能快速精确地掌控分布式存储底层复杂的硬件;存储池的分层设计让用户轻松应对资源规划与关键应用分区;丰富的RESTfulAPI、命令行、磁盘S.M.A.R.T.、容量预警、历史监控、日志和告警等功能帮助用户迅速定位并解决存储集群系统中的各种突发状况。

用户只需具备传统存储管理员的入门级基础,即可胜任系统的安装部署、日常管理、监控审计和升级扩容等工作。

丰富的存储高级功能

ASDS企业级分布式存储支持即时快照ROW(RedirectonWrite)、克隆、EC、多副本、故障域等功能帮助轻松构建高级别的数据保护机制;精简配置(ThinProvisioning)、空间回收、分级存储等功能帮助合理的利用硬件资源。

存储加速引擎

ASDS企业级分布式存储提供高性能多级Cache加速引擎,包括RAM、SSD两级Cache,其中RamReadCache采用使用的增强型预读算法,提升系统读性能;SSDR/WCache提供智能IO合并算法和热点数据分析算法,大大提升OLTP业务下的系统读写性能。

1.1.7网络功能特性

超融合提供灵活方便的基础网络服务,管理员可根据自身的业务场景设置合适网络服务,减轻与日俱增的云主机数量带来的网络不可控难题。

自动化网络服务,是产品核心技术之一。

目前,超融合提供对以太网的自动化管理,包括扁平网络和云路由网络。

基于以太网提供DHCP、弹性IP、端口转发、负载均衡、IPsec隧道VPN和安全组等服务功能,可基于VLAN和VXLAN实现网络隔离。

管理员/用户基于扁平网络和云路由网络功能,可以构建丰富的业务网络场景,实现业务/租户隔离能力。

1.1.7.1扁平网络

扁平网络是指云平台提供纯二层的网络服务,三层功能由外部物理网络提供。

扁平网络的架构图如下所示:

1.1.7.2VPC网络

VPC网络是是基于VPC路由器和VPC网络共同组成的自定义私有云网络环境,帮助医院用户构建一个逻辑隔离的私有云。

VPC网络的架构图如下所示:

1.1.8高可用技术

1.1.8.1硬件高可用

承载超融合的底层硬件服务器全部采用高可用设计方案。

每台服务器使用双电源,接入两路交流电,保证在一路电源断电的情况下仍然能够正常工作。

配合接入交换机,服务器各网络跨网卡交叉做bond来保证数据传输的高可靠性。

不同的管理节点分开部署到不同的机柜,避免了机柜整体掉电平台管理无法使用的情况。

使用两块磁盘构建RAID1来安装底层操作系统,一块磁盘损坏的情况下不影响系统整体运行。

3节点起,任意一个节点出现物理损坏都不会影响客户业务正常运行。

1.1.8.2管理节点高可用

管理节点负责整个平台的资源管控、监控、调度、分配和回收,作为租户使用云平台的控制台。

管理节点若出现宕机,管理服务将不可用,直接影响到平台的运维管理、监控报警、租户访问、自动化任务执行等,对平台或租户的运维工作产生较大影响。

因此,需要采用高可用技术来保障平台的管理服务。

超融合提供双管理节点高可用方案,在管理节点上运行一个HA进程,该进程负责整个管理节点环境的初始化、配置、运维、watchdog等功能。

HA进程提供系统配置功能,提供命令行接口,可以调用HA命令将系统配置成高可用环境。

HA进程负责监控MN节点上的关键服务(管理节点进程,UI进程,MySQL),当任何一个服务宕机时,立即通过keepalived触发VIP迁移,然后尝试恢复宕机服务。

HA进程对keepalived进程进行watchdog,确保该进程持续运行。

HA进程提供命令,打印出集群的健康信息。

引入一个网关做仲裁,避免双节点的脑裂问题。

1.1.8.3虚拟机高可用

超融合将一组服务器主机合并为一个具有共享资源池的集群,并持续对集群内所有的服务器主机与虚拟机运行状况进行检测,一旦某台服务器发生故障,超融合会持续进行检测,确定此服务器宕机后,会立即在集群内另一台服务器上重启所有受影响的虚拟机,保证业务的连续性。

超融合虚拟机高可用方案不需要专门的备用硬件,也不需要集成其他软件,就可以将停机时间和IT服务中断时间降到最低程度。

同时避免单一操作系统或特定于应用程序的故障切换解决方案带来的成本和复杂性。

虚拟机高可用设计如下:

添加物理机时,在连接物理机的过程中,管理节点会通过KVMagent抓取物理机的所有IP地址。

管理节点周期性的发送ping命令到物理机的agent。

ping命令发送失败,或物理机未在指定时间内响应ping命令,则认定物理机可能宕机,物理机探测器启动。

当发现疑似宕机的物理机时,管理节点查找该物理机所在集群的主存储的存储网络IP。

管理节点对疑似宕机物理机进行检测

(1)管理节点在指定时间内,使用存储网络IP周期性的使用nmap扫描物理机端口,如果某次扫描成功,则认为物理机仍然工作,不执行VMHA动作。

(2)管理节点通知集群内监控的物理机通过存储网络IP使用nmap扫描疑似宕机物理机。

如果某次扫描成功,则认为该物理机仍然工作,不执行VMHA动作。

(3)如果上述检查全部失败,则认为物理机宕机,VMHA启动。

管理节点会选择健康的物理机,启动宕机物理机上所有设置了高可用的VM。

1.1.8.4存储高可用

存储作为超融合的核心,一旦发生异常,将会影响整个超融合云平台的运行,产生大面积影响。

超融合采用分布式存储,基于分布式存储多节点、多副本的能力,可以实现存储硬盘级别、节点级别、机柜和机房级别的高可用。

ASDS企业级分布式存储基于Ceph分布式存储方案开发,并对Ceph做了配置优化以达到医院生产环境要求。

用户可以通过超融合云平台使用云存储创建、删除、云主机挂载、云存储卸载、云存储查询、云存储QoS等服务。

采用全分布式存储架构,整个存储系统没有单点故障,并且,通过系统的多副本技术,可以根据用户需要设置数据副本数量和复制策略,把数据同时存在于多台服务器、多个机架、多个数据中心中,最大限度提高数据容灾能力。

Ceph由多个独立的x86服务器实现,所有节点是完全对称架构,无主次之分,可以在不停机的情况下动态增加/删除存储节点,实现存储容量和性能的动态扩展,“对称”意味着各节点可以完全对等,能极大地降低系统维护成本,且无单点故障。

支持理论上无限水平扩展,支持PB级别的大规模存储。

ASDS企业级分布式存储支持用户数据按照设定的1-6副本进行冗余存储。

如下图所示,以3个节点组成一个资源池,存储数据为两副本的简单模型为例,任意1个节点上的主副本数据,其备副本数据会均匀分布在其他节点上,单点故障系统不会丢失数据。

两副本场景下,在一个资源池内,出现一个节点或一块磁盘故障,整个系统不会丢失数据,不影响业务正常使用。

三副本场景下,在一个资源池内,出现两个节点或两块磁盘同时故障,整个系统不会丢失数据,不影响业务正常使用。

故障域指有共同单点故障的服务器(如同一个机架)组成,数据副本分布到不同故障域,保障数据安全。

可以为机架、服务器、硬盘提供故障恢复能力。

无论磁盘、服务器发生硬件故障,甚至整个机架出故障,也不会造成停机或数据丢失。

下图每个机架设置成一个故障域,如果创建一个2副本存储池,则不同副本数据一定会自动化分放在不同的机架里,这样即使机架A出现故障,也不会停机或数据丢失。

Cephmonitor采用Paxos选举算法,Paxos算法保证系统正常工作的前提是正常工作的节点数占整个节点数的半数以上。

三个Cephmonitor节点分别装在三个不同的节点上,允许1个节点宕机;如果Ceph的monitor节点超过半数宕机,Paxos算法就无法正常进行仲裁(quorum),此时,Ceph集群会阻塞对集群的操作,直到超过半数的monitor节点恢复。

1.1.9容灾备份

超融合提供本地灾备、异地灾备、公有云灾备三种典型灾备场景。

1.1.9.1本地灾备

支持将本地部署的镜像仓库作为本地备份服务器,用于存放本地云主机/云盘/管理节点数据库(以下简称数据库)的定时备份数据。

同时本地备份服务器支持主备无缝切换,有效保障业务连续性。

当发生本地数据误删,或本地主存储中数据损坏等情况,可将本地备份服务器中的备份数据还原至本地;当集群整体发生灾难时,完全可依赖本地备份服务器重建集群并恢复业务。

1.1.10异地灾备

支持将异地机房的存储服务器作为异地备份服务器,用于存放本地云主机/云盘/数据库的定时备份数据。

备份数据需通过本地备份服务器同步至异地备份服务器。

当发生本地数据误删,或本地主存储中数据损坏等情况,可将异地备份服务器中的备份数据还原至本地。

当本地数据中心发生灾难时,完全可依赖异地备份服务器重建数据中心并恢复业务。

1.1.11公有云灾备

支持将公有云上的存储服务器作为公有云备份服务器,用于存放本地云主机/云盘/数据库的定时备份数据。

备份数据需通过本地备份服务器同步至公有云备份服务器。

当发生本地数据误删,或本地主存储中数据损坏等情况,可将公有云备份服务器中的备份数据还原至本地。

当本地数据中心发生灾难时,可依赖公有云备份服务器重建数据中心并恢复业务。

1.1.12弹性伸缩

部分医院业务的访问量会周期性或随机的出现波动,该类业务对IT资源的需求也存在较大的波动,这就要求医院IT基础架构能够支撑这样的弹性扩展需求,IT部门面临很大的挑战.传统的解决方案有两种方式,静态和动态部署:

前者指按照峰值来规划并部署,但是一次性投入很大,而且平时资源利用率很低;后者指在峰值到来之前进行扩容,峰值过后回收资源,这使得管理员工作量很大,需要不断的人工干预。

云计算的出现,带来了全新的IT基础架构建设、使用和交付模式。

通过服务器虚拟

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工作范文 > 其它

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2