HBase与BigTable的比较.docx

上传人:b****4 文档编号:3807959 上传时间:2023-05-06 格式:DOCX 页数:15 大小:23.02KB
下载 相关 举报
HBase与BigTable的比较.docx_第1页
第1页 / 共15页
HBase与BigTable的比较.docx_第2页
第2页 / 共15页
HBase与BigTable的比较.docx_第3页
第3页 / 共15页
HBase与BigTable的比较.docx_第4页
第4页 / 共15页
HBase与BigTable的比较.docx_第5页
第5页 / 共15页
HBase与BigTable的比较.docx_第6页
第6页 / 共15页
HBase与BigTable的比较.docx_第7页
第7页 / 共15页
HBase与BigTable的比较.docx_第8页
第8页 / 共15页
HBase与BigTable的比较.docx_第9页
第9页 / 共15页
HBase与BigTable的比较.docx_第10页
第10页 / 共15页
HBase与BigTable的比较.docx_第11页
第11页 / 共15页
HBase与BigTable的比较.docx_第12页
第12页 / 共15页
HBase与BigTable的比较.docx_第13页
第13页 / 共15页
HBase与BigTable的比较.docx_第14页
第14页 / 共15页
HBase与BigTable的比较.docx_第15页
第15页 / 共15页
亲,该文档总共15页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

HBase与BigTable的比较.docx

《HBase与BigTable的比较.docx》由会员分享,可在线阅读,更多相关《HBase与BigTable的比较.docx(15页珍藏版)》请在冰点文库上搜索。

HBase与BigTable的比较.docx

HBase与BigTable的比较

HBase与BigTable的比较(翻译)

博客分类:

Hadoop

HBaseHadoopMapreduce数据结构配置管理

知,HBase是Google的BigTable架构的一个开源实现。

但是我个人觉得,要做到充分了解下面两点还是有点困难的:

一HBase涵盖了BigTable规范的哪些部分?

二HBase与BigTable仍然有哪些区别?

下面我将对这两个系统做些比较。

在做比较之前,我要指出一个事实:

HBase是非常接近BigTable论文描述的东西。

撇开一些细微的不同,比如HBase0.20使用ZooKeeper做它的分布式协调服务,HBase已经基本实现了BigTable所有的功能,所以我下面的篇幅重点落在它们细微的区别上,当然也可以说是HBase小组正在努力改进的地方上。

比较范围

本文比较的是基于七年前发表的论文(OSDI’06)所描叙的GoogleBigTable系统,该系统从2005年开始运作。

就在论文发表的2006年末到2007年初,作为Hadoop的子项目的HBase也产生了。

在那时,HBase的版本是0.15.0.如今大约2年过去了,Hadoop0.20.1和HBase0.20.2都已发布,你当然希望有一些真正的改进。

要知道我所比较的是一篇14页的技术论文和一个从头到脚都一览无余的开源项目。

所以下面的比较内容里关于HBase怎么做的讲得比较多点。

在文章的结尾,我也会讨论一些BigTable的如今的新功能,以及HBase跟它们比较如何。

好,我们就从术语开始。

术语

有少数几个不同的术语被两个系统用来描述同样的事物。

最显著的莫过于HBase中的regions和BigTable中的tablet。

自然地,它们各自把一连串的行(Rows)切分交给许多Regionserver或者tabletserver管理。

特性比较

接下来的就是特性比较列表,列表中是BigTable跟HBase的特性比较。

有的是一些实现细节,有的是可配置的选项等。

让人感到有困惑的是,将这些特性分类很难。

 

 

特性

BigTable

HBase

说明

读 / 写 / 修改的原子性

支持,每行

支持,每行

因为 BigTable 不像关系型数据库,所以不支持事务。

最接近事务的就是让对每行数据访问具有原子性。

 HBase 同样实现了”行锁”的 API ,让用户访问数据时给一行或者几行数据加锁。

词典顺序的行排序

支持

支持

所有行都按照词典顺序排序

数据块支持

支持

支持

在数据存储文件中,数据是由更小的数据块构成的。

这使从大的存储文件读取数据更快。

数据块的大小是可配置的,典型配置是 64K 。

数据块压缩

支持,按ColumnFamily

支持,按ColumnFamily

Google 使用 BMDiff 和 Zippy 做两步处理。

 BMDiff 工作得很好是因为存储文件中相邻的 key-value 对的内容经常非常相似。

因为数据支持多个版本,几个版本的内容会被排序然后被存在一起,它们之间有很多相同的内容。

或者 rowkey 也会被用这样的方式处理,比如如果用 URL 来作为rowkey ,而这些 URL 来自统一个网站,那么 rowkey 也会有很多相似之处。

 Zippy 使用的是改进的 LZW 算法。

 HBase 使用的是 Java 支持的标准的 GZip ,以及一点点 GPLlicensedLZO 格式支持。

 Hadoop 也有想使用 BMDiff 和 Zippy 的征兆。

ColumnFamily 数量限制

最多几百

小于 100

理论上行数和列数是无限的,可是列族( columnfamily )却不是。

这个只是设计上的一些折中考率 .

ColumnFamil命名格式

可打印

可打印

HBase 这样做的主要原因是 ColumnFamil 的名称会被作为文件系统中的目录名称

Qualifier 命名的格式

任意

任意

任意的字节数组

Key/Value 对的格式

任意

任意

任意的字节数组

访问控制

支持

BigTable 支持 columnfamily 级别的访问控制。

 HBase 暂不支持

Cell 多版本

支持

支持

多版本支持是基于时间戳。

 

版本数目限制可以基于 cloumnfamily 级别自由配置

自定义时间戳

支持

支持

两个系统都支持用户设定时间戳,如果用户不指定,则使用当前时间作为时间戳。

数据 TTL

支持

支持

除了数据可以有多个版本,用户还可制定 TTL ( time-to-live ),当数据到期后会被清除

批量写入

支持

支持

都支持批量表操作

值计数器

支持

支持

两者都可使用特定的列作为原子计数器。

 HBase 实现是:

当计数器的值要增长时,它必须获得行锁。

行过滤器

支持

支持

两者都支持扫描行时支持行过滤器

客户端脚本执行

支持

不支持

BigTable 使用 Sawzall 使客户端可以处理存储的数据。

MapReduce支持

支持

支持

两者都有方便的工具类让 MapReduceJob 扫描表。

底层文件系统

GFS

HDFS,S3,S3N,EBS

BigTable 工作在 GFS 之上, HBase 可以使用任何文件系统,只要有该文件系统的代理或者驱动即可。

存储文件格式

SSTable

HFile

块索引

在文件最后

在文件最后

两者都有相似的块结构化的存储文件格式,并且块索引被放在文件的最后

内存映射

支持

不支持

BigTable 可以让存储文件直接映射到内存。

锁服务

Chubby

ZooKeeper

ZooKeeper 被 HBase 用来协调任务并非当成锁服务。

总体说来, HBase使用 ZooKeeper 达到了 BigTable 使用 Chubby 的效果,只有语义有点细微区别。

单个 Master

不是

HBase 近来支持多个 Master 。

多个 Master 是”热”待命模式工作,它们都侦听 ZooKeeper 上的 Master 节点。

Tablet/Region数目

10-1000

10-1000

两个系统都推荐每个 Regionserver 分配相同数目的 region 。

当然这决定于很多因素,由于两个系统都使用普通电脑,出于负载考虑,它们推荐相同的数目

Tablet/Region大小

100-200MB

256MB

在两个系统中,单个 Region 大小是可配置的,在 HBase 中,默认大小为256MB

Root 位置

1stMETA/Chubby

-ROOT-/ZooKeeper

HBase 会使用一个只有单个 Region 的自身表来存储 Root 表。

二者启动时都会把 Rootregion 所在机器的地址放到 ZooKeeper 或者 Chubby 中。

客户端Region 信息缓存

支持

不支持

二者客户端都支持 Region 位置信息缓存并且有相应的机制去除过时的缓存和更新缓存

Meta 预读

支持

不支持(?

BigTable 的一个设计就是会预读超过 1 个 MetaRegion 信息并将之放入客户端缓存。

Region 事件记录

支持

支持

Region 相关事件(切分,分配,再分配)都会记录在 Meta 表中

存储位置分组( LocalityGroups )

支持

不支持

这不是很确定,但是看起来 BigTable 中的任何东西都有个位置分组的属相。

如果多个列族的位置分组相同,那么它们将被存放在一起,并且拥有相同的配置参数。

单个列族就可能是一个拥有一个成员的位置分组。

HBase 不支持这种选项,并将不同的列族分开存储。

完全内存ColumnFamily 存储

支持

支持

这是为需要高速存取小表准备的

KeyValue 缓存

支持

不支持

缓存热点 Cell 数据

数据块缓存

支持

支持

数据块从存储文件读入到在可配置的缓存中

布隆过滤器(BloomFilters)

支持

支持

这些过滤器会消耗一些内存,但是可以快速检查一个指定的 cell 是否在一个 RegionServer 上存在

Write-AheadLog(WAL)

支持

支持

每个 RegionServer 都会记录被它管理的所有 Region 上的数据改动

SecondaryLog

支持

不支持

出于性能考虑,一旦 WAL 性能下降, BigTable 还有别的 log 可以使用

忽略 Write-AheadLog

支持

在大量数据导入时, HBase 的客户端可以选择忽略 WAL

快速 Region切分

支持

支持

切分 region 是快速的,因为切分出来的子 region 暂时还会去读取原存储文件直到一个 compaction 将数据写入 region 的自有的存储文件

 

BigTable新特性

OSDI’06BigTable论文发表已有几年,BigTable当然也有改进。

杰夫.迪恩—一个在Google的家伙在近来的一些演讲和演示中提到了BigTable的新特性。

我们就来瞧瞧部分新特性吧。

 

 

 

 

特性

BigTable

HBase

说明

客户端隔离

支持

不支持

BigTable 可以内在地被用来服务很多单独的客户端,并且使它们的数据隔离不互相影响

协同处理(Coprocessors )

支持

暂不支持

BigTable 在 region 中运行的代码可以随着 region 的被切分,代码也被会切分到新的 region 上运行。

数据错误安全

支持

不支持

BigTable 使用 CRC 校验码确认数据是否被安全写入。

 HBase 没有这个特性,问题是:

 Hadoop 是否会包含这个特性?

数据中心间数据复制

支持

暂不支持

HBase 的一个 issue :

 HBASE-1295 就是关于这个特性的。

 

 

变化和差异

上面讨论的一些特性比较可以看出有些特性差异并不是可以简单归结为”是或否”类的问题,对这类问题我将在下面单独探讨。

锁服务

下面的来自BigTable论文

 

BigTable用Chubby来完成一些不同的任务:

保证在任何时候只有一个活动的Master;存储BigTable引导区地址;发现tabletserver以及在tableserver死亡时做善后工作;存储BigTable的schema信息(每个表的列族信息);存储访问控制列表。

如果Chubby在一段较长的时候变得不可用,那么BigTable系统就会变得不可用。

 

BigTable如何使用Chubby跟HBase如何使用ZooKeeper有很多异曲同工之处。

但有一个区别就是:

HBase并不把Schema信息存储在ZooKeeper中。

它们都非常依赖锁服务的正常运作。

根据我自身的经验以及我阅读HBase邮件列表所得到的,我们经常低估当ZooKeeper无法取得足够的资源去作出实时回应时的后果。

宁可让ZooKeeper集群运行在相对较老旧的但是什么别的事都不干的机器上,而不是运行在已被Hadoop或者HBase进程搞得不堪重负的机器上。

一旦你的ZooKeeper没有足够的资源提供服务,就会引发多米诺骨式的效应,HBase将会挂掉—包括master节点。

 

更新:

在跟ZooKeeper开发小组讨论后,我想指出的是这并不真正意义上是ZooKeeper的一个问题。

因为如果运行ZooKeeper的机器负荷很重,那么存取ZooKeeper上的资源很可能会超时。

在这种情形下,HBase的RegionServer甚至Master可能会认为协调服务已经坏了,它们就会让自己停工关闭。

  帕特里克 . 亨特已经通过邮件和发帖对此作出回应。

你可以读他的邮件或者帖子,然后检查自己的ZooKeeper 是否有能力处理负荷。

我个人建议是将 ZooKeeper 集群跟 HBase 集群分开。

你可以把 ZooKeeper 集群运行在一组空闲的稍微有点过时但是性能还相当不错的机器上。

这样你可以单独监控 ZooKeeper 集群和 HBase 集群中的机器,而不必有以下的烦恼:

当一个机器的 CPU 负荷 100% 的时候,你搞不清楚这个负荷究竟来自哪个进程或者有什么后果。

 

另外一个重要区别是:

 ZooKeeper 并不是一个像 Chubby 一样的锁服务系统,但是目前为止,这并不是 HBase 所关心的。

 ZooKeeer提供一个分布式的协调服务,让 HBase 可以选举出 Master 节点。

它也可以提供用以表示状态或者某个动作需要的信号量。

当 Chubby生成一个锁文件来表示一个 tablet 活动的,与此相对应的一个 Regionserver 会在 ZooKeeper 中生成一个节点来表示自己的存在。

这个节点创建以后,只要 ZooKeeper 不挂,它会一直存在。

在 BigTable 中,当一个 tabletserver 的锁文件被删除时就表示与这个 tabletserver 的租约失效。

在 HBase 中,因为 ZooKeeper 相对少点限制的架构,这种行为会被处理得有所不同。

它们只是语义上有所差别,并不意味着谁优谁劣,仅仅有所不同而已。

 

在Chubby中,第一层级的文件包含着根tablet的位置信息。

根tablet包含着一个特别的名叫METADATA(元数据)表的所有的tablet的位置信息。

每个METADATA的tablet包含着一组用户表的tablet的位置信息。

根tablet仅仅是METADATA表中第一个tablet,但是它被特别的看待—它从不会被切分,这是为了保证tablet的位置层级不会超过3层。

 

就如上面所说的,在HBase中,根region是一个只有单个region的表。

要说有什么区别的话,那就是根region并不是meta表中的第一个不可切分的region。

它们是相同的功能,只是实现上有差别。

 

METADATA表存储着tablet的位置信息,跟在起始rowkey和末尾rowkey以及表名之后。

 

HBase的做法有点不同,它也会为每个region存储起始的rowkey和末尾rowkey,但是末尾的rowkey并不是属于当前的region的,它会是另一个region的起始rowkey.

 

Master的行为

 

为了侦测一个tabletserver是否不再为它的tablets服务,master会定期地查看每个tabletserver锁文件的状态。

当一个tabletserver报告它丢失了锁文件,或者master经过几次尝试后未能联系上tabletserver,master就会尝试在tabletserver的锁文件上获得独占锁。

如果master可以获得这个锁,还有Chubby是良好工作的,这时如果tabletserver已经死亡或者已经把错误上报给Chubby,这时master就可以确定该tabletserver不可能恢复,于是会删除它的锁文件。

一旦一个tabletserver的锁文件被删除,本来被该tabletserver服务的tablets会被移到没被分配的tablets集合中去。

为了保证master和Chubby之间网络畅通,只要master的Chubbysession过期,master将会自杀。

 

直到0.20.2版本,HBase的行为都相当不同。

Regionserver利用heartbeat协议给master定期报告,master接到报告就知道regionserver还活着。

 

Master启动

 

Master启动有以下步骤:

(1)Master从Chubby中获取唯一的master锁,用来防止多个master的初始化

(2)Master扫描Chubby中的server目录找到活动的server.(3)Master跟多个活动的tabletserver通讯,收集tablets的分配情况(4)Master扫描METADATA表得知所有的tablets集合。

(4)Master如果发现有tablet并没有分配到tabletserver,它会将之放入未被分配tablets集合,这样这个tablet就会被认为是可以被分配的。

 

就如我上面提到的,HBase实际上会等待所有的regionserver上报它负责的region情况。

当然,它也会扫描.META.表去了解有哪些region以及它们是分配到哪些regionserver上了。

ZooKeeper仅仅用来发布-ROOT-region所在的regionserver的地址。

 

Tablet/Region切分

 

在切分通知被丢失时(因为tabletserver挂了或者master挂了)的情况下,当master要求tabletserver装载被切分的那个tablet时,master会发现新的tablet.Tabletserver会将此次切分通知master,因为它会发现在METADATA中找到的tablet只是master要求它装载的tablet的一部分。

 

Master节点会单独利用.META.表去发现一个region去切分,但是切分事件消息被丢失的情况。

Master会按往常一样扫描.META.去发现,哪些region并没有被分配。

一旦发现没有被分配的region,master会用默认的策略将之分配到一个regionserver上。

 

压紧(Compaction)

随着写动作的执行,内存表的大小会不断增长。

当内存表的容量到达一个临界点时,内存表将被冻结,一个新的内存表将会被创建,被冻结的内存表将被会转换成SSTable并被写入到GFS中。

这种minorcompaction操作有2个目的:

1降低tabletserver的内存用量,2当一个tabletserver死而复生从commitlog读取数据时,减少数据总量。

当压紧动作发生时,认可继续执行读写操作。

 HBase也有相应的操作,不过被命名为”flush”。

对应BigTable的”minorcompaction”,HBase会把最近生成的很多较小的存储文件重写为一个包含较多数据的大文件。

 

…我们将限制此类文件的数目,方式是定期地在后台执行合并压紧操作。

合并压紧操作就是读取几个SSTable和内存表的内容,然后写到一个新的SSTable中去。

一旦合并压紧操作完成,老的SSTable和内存表就将可被丢弃。

 

这个动作跟HBase中的”minorcompaction”差不多。

 

读取所有的SSTable,重新写成一个SSTable的合并压紧操作被称为是majorcompaction

 相应的在HBase中,一个majorcompaction就是把所有的存储文件(HFile)重写成一个新的文件。

 

文件不可修改

要知道文件一旦被写入将不能修改,BigTable有如下的假定:

唯一可以被修改的数据结构就是读写都可以的内存表(memtable)。

为了避免同时读写内存表的冲突,我们在写内存表的数据行的时候,会先复制一个副本,这样读写就可以并行处理了。

 

我相信HBase中的做法跟此类似,但不是很确定。

可以确定是,根据HDFS的架构,文件一旦被写入就是不能被修改的。

我唯一的建议就是你自己去阅读BigTable的相关资料以形成自己的见解。

这篇帖子的灵感来自一个念头:

BigTable究竟实现了哪些特性,HBase涵盖了BigTable的哪些特性?

写这片帖子的困难毫无疑问是我们对BigTable的细节所知不多。

但是关于它的论文数量–即便是2006年的论文列表都给人留下难以磨灭的印象。

HBase作为一个开源项目,而且项目的贡献者是为数不多的有着全职工作的人,现在虽不能说跟BigTable相提并论,但怎么说都我都认为现在的成果是一个巨大的成就。

看看0.21和0.22的路线图,将来它们之间不大的差距将会变得更加缩小。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 解决方案 > 学习计划

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2