基于AWS基础设施构建高可用高可扩展的系统.docx

上传人:b****7 文档编号:15862032 上传时间:2023-07-08 格式:DOCX 页数:21 大小:901.77KB
下载 相关 举报
基于AWS基础设施构建高可用高可扩展的系统.docx_第1页
第1页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第2页
第2页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第3页
第3页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第4页
第4页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第5页
第5页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第6页
第6页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第7页
第7页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第8页
第8页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第9页
第9页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第10页
第10页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第11页
第11页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第12页
第12页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第13页
第13页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第14页
第14页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第15页
第15页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第16页
第16页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第17页
第17页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第18页
第18页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第19页
第19页 / 共21页
基于AWS基础设施构建高可用高可扩展的系统.docx_第20页
第20页 / 共21页
亲,该文档总共21页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

基于AWS基础设施构建高可用高可扩展的系统.docx

《基于AWS基础设施构建高可用高可扩展的系统.docx》由会员分享,可在线阅读,更多相关《基于AWS基础设施构建高可用高可扩展的系统.docx(21页珍藏版)》请在冰点文库上搜索。

基于AWS基础设施构建高可用高可扩展的系统.docx

基于AWS基础设施构建高可用高可扩展的系统

基于AWS基础设施构建高可用、高可扩展的系统

瀚思成立于2014年,属于ToB的安全行业。

我们主要为企业用户构建基于大数据的安全分析平台,通过大规模采集企业的各类安全数据,并运用各种规则引擎、机器学习算法,在海量数据里挖掘出隐藏的安全问题,最终的目的是构建企业里基于数据的安全大脑,用数据驱动安全。

本文介绍如何在支持弹性计算的云平台如AWS上构建一套高可用性和高可扩展性的大数据分析平台。

和上期一样,我也不会介绍安全方面的内容,更多的是大数据平台技术落地上的工程化实践经验,包括如何设计,如何规划,如何监控。

其中会拿机器学习算法分析模块举例如何设计高可扩展性,但是会弱化机器学习算法本身的特性,优化,应用场景等方面。

后续的两个分享会有更多这方面的内容。

一定有人会问到,为什么要在云平台上构建安全分析平台。

这里有多方面的原因,首先瀚思有在线的安全分析服务“安全易”。

其次,瀚思自己有很多的安全数据需要处理,比如全球威胁情报。

自己构建数据中心来支持这样的运算服务对于初创公司来讲,upfrontcost有点高,选用AWS这样的平台,即开即用,按需付费是很合适的模式。

也一定有人会问到,那为什么选择AWS。

瀚思的研发团队,在创业之前,从2011年开始就在AWS上大规模构建在线的安全扫描服务,算是国内最早接触AWS平台的团队之一。

然后,瀚思有全球部署安全分析触点的需求,AWS的数据中心的全球覆盖率是最好的。

从Gartner的MQ来看,AWS也是公有云市场上leader中的leader,远超其他竞争对手。

这是Gartner2017年公有云市场的MagicQuadrant,可以看到AWS依然遥遥领先。

简单来讲,这样的典型平台里数据的处理流程是:

采集->存储->分析->展现。

其中存储和分析是一个迭代完成的过程,分析的结果会进入存储,也会再次被用作分析。

最终所有的数据,无论采集的原始数据还是分析加工出来的数据,都会通过数据可视化的技术来展现给用户。

采集->存储->分析->展现,这样的数据流程里,采集、分析、展现一般都分类为应用服务器的范畴,通过特定的代码逻辑来解决数据处理的某一个环节。

而存储则很明显属于存储服务器的范畴,包括传统的关系型数据库,以及NoSQL数据库,其他的集群存储等。

构建大数据分析平台,一般会采用非常多的开源组件,这一点很常见。

但是开源组件,一般很少有原生对SaaS部署方式的内建设计支持。

这样将大数据分析平台SaaS化时,就会遇到很多难点,这里列举了4点。

其中多租户和访问控制,是基于开源模块构建对客户的SaaS服务时的常见问题,比如ELK框架如何SaaS化。

针对这两点,我在去年AWSSummit北京站有一个专题分享,有兴趣的同学可以关注瀚思的公众号,在去年9月的公众号文章里有相关的内容介绍。

今天主要讨论“高可扩展性”和“高可用性”这两个话题。

针对存储服务器,这两点通常用集群+数据冗余+数据备份解决,每一类存储服务都有比较完整的方案。

因此今天主要围绕应用服务器来谈这两个问题。

高可拓展性设计

首先,我们来谈谈高可扩展性设计

AutoScalingGroup(ASG)是AWS平台为高可扩展性提供的基础服务之一。

ASG可以通过Group内服务器平均CPU负载、进出带宽或者应用程序自定义的指标来控制Group内服务器数量的动态增长或者削减。

比如:

当集群平均CPU负载超过阈值,ASG开始基于AMI创建更多的EC2服务器加入ASG来分担工作,直到CPU平均负载降到阈值内。

有了ASG为基础,可以创建出一个充分利用弹性计算平台特性的高可扩展性应用服务器集群。

但是从AMI随时创建一个新服务器加入集群即开始分担工作,或者随时削减一台服务器,不影响整体集群的计算任务,对应用服务器设计有一个很高的要求:

无状态。

无状态(stateless)这个词,相信很多人可能听过。

关于无状态的应用服务器设计要素,这里是我个人经验总结的两点:

1)单个应用服务器的可更替性,2)应用集群里任意服务器的对等可替换性,其中前者是后者的基础。

接下来分别详细解释。

首先是单个应用服务器的可更替性。

主要考虑的是集群里某台服务器由于某种原因挂掉(比如手抖了一下敲错脚本),ASG恢复一台服务器后,可以达到这台服务器被更替前同样的状态。

不会由于服务器的更替,导致新服务器程序逻辑不一致,数据丢失,不可恢复,应用逻辑中断,集群作为整体的计算状态出现错误等状态。

为达到这种可更替状态,主要考虑的是数据与应用分离,以及妥善处理好当前正在执行的任务的状态。

这页slides细分了数据与应用分离的几个主要考虑方面。

数据与应用分离,也是对无状态设计的最常规理解。

在单个服务器可更替的基础上,更进一步的无状态设计要求,是集群里的任意服务器之间的对等可替换性。

主要意思是服务器上的计算任务可以自动无缝迁移到其他服务器,不依赖于本机的上下文或者历史执行状态。

有了这一层保证,才能在ASG根据策略动态增加或者削减服务器数量时,整个应用服务器集群的工作任务可以动态负载到变化过后的服务器,实现高可扩展性。

这里列举了几个常见的对等可替换性设计的制约因素。

不同的应用服务器的无状态设计要求与思路是不一样的。

前面列举的采集、分析、展现三类大数据分析平台相关的应用中,分析应用是最难做到无状态的,因为他往往涉及数据上下文依赖,从而不满足“对等可替换性”。

这里我们以一个无监督机器学习算法“时间序列异常”分析为例,分析一下这样一个算法类的分析应用服务集群,如何满足无状态设计的两点要求。

这个是我们产品的时间序列异常分析算法的执行结果界面的截图。

我们的时间序列异常检测算法通过无监督机器学习的方法,基于历史数据训练找到数据指标中的异常点,比如图中的红点。

在这样一个算法执行任务集群上,可能运行有非常多的并行算法分析任务,这样一个看起来对数据前后关系有强上下文依赖的算法应用集群,如何做到无状态设计呢?

无状态设计的主要思路,是将应用服务的主要逻辑分解成多个子任务或子步骤,直到子任务可以被整体状态迁移。

时间序列异常检测算法的执行过程,常规来讲有两个步骤:

第一,通过ETL过程梳理待分析的数据,得到算法输入所需的(time,value)形态的基于时间序列的数据流;

第二,将分析周期内的时间序列数据输入算法逻辑,计算出异常点。

因此时间序列异常分析集群的工作,是两个子步骤的循环任务。

且一个集群会在同一时刻并行运行很多的算法分析任务。

每个算法分析任务的子任务,需要能够动态的负载到任一台服务器上,分析处理好这两个子任务的状态迁移,就完成了设计目标。

这两个任务本身的特性非常类似,我们以数据ETL处理步骤为例进行设计说明。

比如我们需要算1分钟步长内每笔数据里bytes字段的sum值,即1分钟为单位的数据传输量。

这样的ETL结果输入给时间序列异常算法,可以找到数据传输量这个分析目标的异常波动。

这里每1分钟的聚合计算就是一个子任务单元。

这个ETL子任务,首先要解决服务的可更替性。

参照前面的设计考虑点,获取的数据源,输出的数据结果,应该部署在外部的数据队列集群或者存储集群,做到数据与应用分离。

当前算法任务的ETL具体设置,应存储在策略服务器,做到配置与应用分离。

当前ETL任务的执行状态(未启动,运行中,已完成),应该标记在外部存储。

到此,任何一个1分钟的ETL单元,如果计算到一半服务或者服务器出错退出,可以有替代服务重新完成这个ETL单元。

第二步是解决对等可替换性,即任何一个算法任务的任何一次ETL步骤单元,可以由集群里任意一台服务器完成,实现子任务的可迁移。

首先将ETL任务预标记出来,存储在外部存储比如数据库。

这个步骤可以由集群里每台服务器都尝试为集群要处理的每个算法任务标记出下一个ETL计算任务,通过算法任务ID+计算起始时间戳为主键来保证任务的唯一性,并将任务标记为waiting状态。

接下来每个服务器可以竞争任务列表里的下一个waiting任务,这里可以用类似选举算法来决定谁取到下一个任务。

一旦决定,即为任务打上running状态标记及开始时间。

这个期间,其他服务器不会争取running状态的任务,ETL计算完成则标记为Done状态。

计算过程中,一旦服务器或者应用崩溃,或者由于ASG主动削减一台服务器,导致此服务器负责的任务未结束一直是“ongoing”状态,在下一轮任务选举过程中,需要对所有ongoing任务做超时检测,一旦超时,则重新标记为waiting状态,重新进入选举列表。

通过将子任务的状态外迁到存储服务器,以及任务的选举分配+超时检查,完成了ETL计算任务在集群内的对等可替换性。

即任何任务可以运行在任何服务器上,没有前序或者后序的状态依赖。

至此,ETL计算任务实现了无状态设计。

以此类推的完成算法计算子任务的无状态设计,这样任何一个算法任务的任何一次子任务,可以运行在集群任何一台服务器上,则整个时间序列异常算法分析应用服务器实现了无状态。

接下来可以在ASG的控制下,通过集群的平均CPU负载来动态水平扩展或者缩减服务器数量,完成了集群的高可扩展性。

这里举例的只是一种应用场景的设计思路,并不能解决所有的应用服务器的场景,需要对不同的应用逻辑针对性设计,NoSilverBullet。

高可用性设计

接下来,我们来谈谈高可用性设计。

一个大型SaaS系统的高可用性(HighAvailability,简称HA)是一个比较复杂的系统工程,不是一两个简单技术点的应用就可以解决,也很难通过十几分钟的Session来讲清楚。

我在这里试图把我从过往经验中看到的各种方法和实践,通过一定的层次结构整理出来供大家参考。

从大的方面来讲,决定系统的HA,主要决定因素有两个方面:

设计与监控。

设计在架构与技术思路上提高系统的SLA,监控在止损思路上防止降低SLA。

这张图Highlight了所有在高可用性设计中经常会被提及的关键词,非常多也非常离散。

不过大家可能会发现,其中很多关键词,在刚才我们讨论高可扩展性的时候都有涉及到。

这很正常,因为一个弹性可扩展的应用集群,其中每台服务器都有对等可替换性时,就相当于实现了Active-Active互备,AA本身就是一种经典的高可用性设计方案。

不过AA局限于服务器与应用程序层面,一个完整的全系统高可用性设计涉及5个层面:

基础设施、服务器、应用程序、系统服务、区域。

这里,我们把刚才离散的所有HA设计关键词,按照这5个层面做了一个分类,让各位在做HA设计时有一个更清晰的结构化考虑思路。

接下来我们对每一个主要的设计要点做详细的解释。

后面的slides本身就是建议和bestpractice的合集,文字较多,我的附加解释会稍微少一些。

我们在前面介绍高可扩展性设计的服务可更替性时,已经介绍过数据与应用服务分离的概念。

理想的情况是SaaS系统的每一个应用角色都没有单点。

现实情况下,对业务连续性的关键路径上解决单点基本上就可以。

一些非关键路径,非实时任务的应用,在这一点上可以有妥协。

这里再次recall一下无状态设计的两个方面,这是HA和HS的核心理念。

异地多活是一个非常复杂和庞大的话题,我们只在一定程度上做了小规模的尝试,这里列出的是一些可能的方法和思路。

一个超大型的SaaS系统+超高负荷情况下的异地多活方案遇到的问题要远比我这里列出的复杂。

在我们有了五个层面的完备的高可用性设计,且完全落地后,为什么我们还需要监控?

理由有很多,最基础的一个:

bug永远有。

从我的个人经验来看,监控的核心诉求,是“比客户更早发现问题”,或者我们通常讲的“第一时间发现问题”。

我之前负责的一个SaaS系统,曾经出现过一个bug:

在极端条件下,缓存系统的sdk的多线程bug被触发,导致A客户的配置策略应用到B客户的数据上。

但是我们的系统本身运行状态一切正常,我们既有的常规监控也一切OK。

但是在系统服务层级,我们SaaS给客户的服务逻辑上已经是不可用了。

由于客户自己从怀疑到确认,从Level1技术支持一直escalate到研发,事情已经发生一星期了,从开始少量客户被影响,到我们知道时已经是全球所有数据中心的大规模灾难了。

事后分析发现,缓存错误出现时,各个系统的日志里的warning,errorlog显著增加,不过当时我们并没有对系统日志做很好的监控。

如果这部分监控到位,应该缓存产生错乱的第一天我们就能够捕捉到。

这次事件之后,我们重新梳理了我们的监控思路,体系化的规划了整体的监控方案,和HA的设计类似,从底层平台到高层应用服务,做了全面的监控。

这里是一个典型的利用了AWS平台很多特性以及很多外围系统实现的一个全面监控框架。

到这里,通过设计提升和监控止损,基本上可以保证一个大型SaaS系统的整体高可用性。

我们的系统在多番改造后,连续几年做到了SLA100%,包括系统发布升级过程中也没有任何业务中断,不过这里需要结合很多DevOps和持续发布的最佳实践来支撑,这就是另一个话题了。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 经管营销 > 公共行政管理

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2