SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf

上传人:wj 文档编号:5983231 上传时间:2023-05-05 格式:PDF 页数:13 大小:1.31MB
下载 相关 举报
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第1页
第1页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第2页
第2页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第3页
第3页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第4页
第4页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第5页
第5页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第6页
第6页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第7页
第7页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第8页
第8页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第9页
第9页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第10页
第10页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第11页
第11页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第12页
第12页 / 共13页
SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf_第13页
第13页 / 共13页
亲,该文档总共13页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf

《SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf》由会员分享,可在线阅读,更多相关《SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf(13页珍藏版)》请在冰点文库上搜索。

SSD固态盘应用于Ceph集群的典型使用场景资料下载.pdf

Ceph作为ServerSAN的最典型代表,可对外提供块、对象、文件服务的分布式统一存储系统,不可避免成为关注热点,越来越多的企业在生产环境部署和使用Ceph集群,截止今年4月份为止,云计算提供商DreamHost、欧洲核子研究中心CERN等企业已有3PB规模数据量的Ceph生产环境。

Ceph先进的架构,加上SSD固态盘,特别是高速PCIeSSD带来的高性能,无疑将成为Ceph部署的典型场景。

同时,由于SSD相对昂贵的价格及企业已有设备的利旧考虑,如何控制成本,利用少量的SSD盘来达到关键业务(如电信计费系统的数据库业务等)对性能的要求,做到性能和成本的最佳平衡点,是用好Ceph的关键。

下面讨论Ceph集群中SSD盘四种典型使用场景:

1.作为OSD的日志盘1.作为OSD的日志盘Ceph使用日志来提高性能及保证数据一致性。

使用快速的SSD作为OSD的日志盘来提高集群性能是SSD应用于Ceph环境中最常见的使用场景。

由于OSD日志读写的特点,在选择SSD盘时,除了关注IOPS性能外,要重点注意以下3个方面:

1)写密集场景OSD日志是大量小数据块、随机IO写操作。

选购SSD作为日志盘,需要重点关注随机、小块数据、写操作的吞吐量及IOPS;

当一块SSD作为多个OSD的日志盘时,因为涉及到多个OSD同时往SSD盘写数据,要重点关注顺序写的带宽。

2)分区对齐在对SSD分区时,使用Parted进行分区并保证4KB分区对齐,避免分区不当带来的性能下降。

3)O_DIRECT和O_DSYNC写模式及写缓存由Ceph源码可知(ceph/src/os/FileJournal.cc),OSD在写日志文件时,使用的flags是:

flags|=O_DIRECT|O_DSYNCO_DIRECT表示不使用Linux内核PageCache;

O_DSYNC表示数据在写入到磁盘后才返回。

由于磁盘控制器也同样存在缓存,而Linux操作系统不负责管理设备缓存,O_DSYNC在到达磁盘控制器缓存之后会立即返回给调用者,并无法保证数据真正写入到磁盘中,Ceph致力于数据的安全性,对用来作为日志盘的设备,应禁用其写缓存。

(#hdparm-W0/dev/hda0)使用工具测试SSD性能时,应添加对应的flag:

ddoflag=direct,dsync;

fiodirect=1,sync=12.与SATA、SAS硬盘混用,但独立组成全SSD的Pool2.与SATA、SAS硬盘混用,但独立组成全SSD的Pool基本思路是编辑CRUSHMAP,先标示出散落在各存储服务器的SSDOSD以及硬盘OSD(host元素),再把这两种类型的OSD聚合起来形成两种不同的数据根(root元素),然后针对两种不同的数据源分别编写数据存取规则(rule元素),最后,创建SSDPool,并指定其数据存取操作都在SSDOSD上进行。

在该场景下,同一个Ceph集群里存在传统机械盘组成的存储池,以及SSD组成的快速存储池,可把对读写性能要求高的数据存放在SSD池,而把备份数据存放在普通存储池。

对应于Ceph作为OpenStack里统一存储后端,各组件所使用的四个存储池:

GlancePool存放镜像及虚拟机快照、NovaPool存放虚拟机系统盘、CinderVolumePool存放云硬盘及云硬盘快照、CinderBackupPool存放云硬盘备份,可以判断出,Nova及CinderVolume存储池对IO性能有相对较高的要求,并且大部分都是热数据,可存放在SSDPool;

而Glance和CinderBackup存储池作为备份冷数据池,对性能要求相对较低,可存放在普通存储池。

这种使用场景,SSDPool里的主备数据都是在SSD里,但正常情况下,Ceph客户端直接读写的只有主数据,这对相对昂贵的SSD来说存在一定程度上的浪费。

这就引出了下一个使用场景配置CRUSH数据读写规则,使主备数据中的主数据落在SSD的OSD上。

Ceph里的命令操作不详细叙述,简单步骤示例如下:

1)标示各服务器上的SSD与硬盘OSD#SASHDDOSDhostceph-server1-sasid-2algstrawhash0itemosd.0weight1.000itemosd.1weight1.000#SSDOSDhostceph-server1-ssdid-2algstrawhash0itemosd.2weight1.0002)聚合OSD,创建数据根rootsasid-1algstrawhash0itemceph-server1-sasitemceph-servern-sasrootssdid-1algstrawhash0itemceph-server1-ssditemceph-servern-ssd3)创建存取规则rulesasruleset0typereplicatedsteptakesasstepchooseleaffirstn0typehoststepemitrulessdruleset1typereplicatedsteptakessdstepchooseleaffirstn0typehoststepemit4)编译及使用新的CRUSHMAP#crushtool-cssd_sas_map.txt-ossd_sas_map#cephosdsetcrushmap-issd_sas_map5)创建Pool并指定存取规则#cephosdpoolcreatessd40964096#cephosdpoolsetssdcrush_ruleset13.配置CRUSH数据读写规则,使主备数据中的主数据落在SSD的OSD上3.配置CRUSH数据读写规则,使主备数据中的主数据落在SSD的OSD上该场景基本思路和第二种类似,SATA/SAS机械盘和SSD混用,但SSD的OSD节点不用来组成独立的存储池,而是配置CURSH读取规则,让所有数据的主备份落在SSDOSD上。

Ceph集群内部的数据备份从SSD的主OSD往非SSD的副OSD写数据。

这样,所有的Ceph客户端直接读写的都是SSDOSD节点,既提高了性能又节约了对OSD容量的要求。

配置重点是CRUSH读写规则的设置,关键点如下:

rulessd-primaryruleset1steptakessdstepchooseleaffirstn1typehost#从SSD根节点下取1个OSD存主数据stepemitsteptakesasstepchooseleaffirstn-1typehost#从SAS根节点下取其它OSD节点存副本数据stepemit4.作为CephCacheTiering技术中的Cache层4.作为CephCacheTiering技术中的Cache层CacheTiering的基本思想是冷热数据分离,用相对快速/昂贵的存储设备如SSD盘,组成一个Pool来作为Cache层,后端用相对慢速/廉价的设备来组建冷数据存储池。

CephCacheTieringAgent处理缓存层和存储层的数据的自动迁移,对客户端透明操作透明。

Cahe层有两种典型使用模式:

1)Writeback模式Ceph客户端直接往Cache层写数据,写完立即返回,Agent再及时把数据迁移到冷数据池。

当客户端取不在Cache层的冷数据时,Agent负责把冷数据迁移到Cache层。

也就是说,Ceph客户端直接在Cache层上进行IO读写操作,不会与相对慢速的冷数据池进行数据交换。

这种模式适用于可变数据的操作,如照片/视频编辑、电商交易数据等等。

2)只读模式Ceph客户端在写操作时往后端冷数据池直接写,读数据时,Ceph把数据从后端读取到Cache层。

这种模式适用于不可变数据,如微博/微信上的照片/视频、DNA数据、X射线影像等。

CRUSH算法是Ceph集群的核心,在深刻理解CRUSH算法的基础上,利用SSD的高性能,可利用较少的成本增加,满足企业关键应用对存储性能的高要求。

附.名词解释:

I.Ceph:

开源分布式统一存储(块、对象、文件)项目。

II.CephOSD:

CephObjectStoreDevice的缩写,可以指Ceph里的一个存储单元,也可以指Ceph里的OSD管理进程。

每台服务器上可运行多个OSD进程,典型的Ceph集群由奇数个Monitor节点和多个OSD节点组成。

III.CRUSH:

CRUSH算法是Ceph的核心模块,它通过计算数据存储位置来决定如何存取数据,同时也让Ceph客户端可以直接和各OSD节点通信而不是一个中心节点,这样,避免了Ceph集群的单点故障、性能瓶颈,极大增强了线性扩展能力。

IV.SSD:

SolidStateDrive,固态盘,不解释。

V.SATA/SAS/PCIe:

不同数据总线接口。

高端存储里大部分存储节点采用PCIe技术进行互联;

PCIe接口SSD也是大势所趋。

SATA和SAS,一个指令集是ATA,一个是SCSI,两者都可用来作为机械盘或固态盘的接口。

VI.几种写缓存模式:

Write-through:

向高速Cache写入数据时同时也往后端慢速设备写一份,两者都写完才返回。

Write-back:

向高速Cache写完数据后立即返回,数据不保证立即写入后端设备。

给调用者的感觉是速度快,但需要额外的机制来防止掉电带来的数据不一致。

none:

禁用写缓存,直接往Cache后端慢速设备写数据。

计算机内各级存储设备都存在Cache机制(CPU寄存器-L1缓存-L2缓存-内存-设备控制器缓存-物理设备)

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 总结汇报 > 学习总结

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2