Region是HBase数据管理的基本单位。数据的move,数据的balance,数据的split,都是按照region来进行操作的。
region中存储这用户的真实数据,而为了管理这些数据,HBase使用了RegionSever来管理region。
一个表中可以包含一个或多个Region。
每个Region只能通过一个RS(RegionServer)提供服务,一个RS可以同时对多个Region提供服务,来自不同RS上的Region组合成表格的整体逻辑视图。
regionServer其实是hbase的服务,部署在一台物理服务器上,region有一点像关系型数据的分区,数据存放在region中,当然region下面还有很多结构,确切来说数据存放在memstore和hfile中。我们访问hbase的时候,先去hbase系统表查找定位这条记录属于哪个region,然后定位到这个region属于哪个服务器,然后就到哪个服务器里面查找对应region中的数据
每个region有三个主要要素:
- 它所属于哪张表
- 它所包含的的第一行(第一个region没有首行)
- 它所包含的最后一行(末一个region没有末行)
当表初写数据时,此时表只有一个region ,当随着数据的增多,region开始变大,等到它达到限定的阀值大小时,变化把region分裂为两个大小基本相同的region,而这个阀值就是storefile的设定大小(参数:hbase.hregion.max.filesize新版本默认10G) ,在第一次分裂region之前,所有加载的数据都放在原始区域的那台服务器上,随着表的变大region的个数也会相应的增加,而region是Hbase集群分布数据的最小单位。(但region也是由block组成,具体这个block和hdfs block什么样的关系后面再说,region是属于单一的regionserver,除非这个regionserver宕机,或者其它方式挂掉,再或者执行balance时,才可能会将这部分region的信息转移到其它机器上。)
这也就是为什么region比较少的时候,导致region分配不均,总是分派到少数的节点上,读写并发效果不显著,这就是hbase读写效率比较低的原因。
Region 的结构?
- 层级结构
- Table (HBase 表)
- Region(表的Regions)
- Store(Region中以列族为单位的单元)
- MemStore (用于写缓存)
- StoreFile (StoreFiles for each Store for each Region for the table)
- Block (读写的最小单元)
- StoreFile (StoreFiles for each Store for each Region for the table)
- MemStore (用于写缓存)
- Store(Region中以列族为单位的单元)
- 重要成员
2.1 Region
Region是HBase数据存储和管理的基本单位
2.1.1 Region的数量设计
设计的本意是每个Server运行小数量(2-200)个大容量(5-20Gb)的Region,理由如下:
- 每个MemStore需要2MB的堆内存,2MB是配置的,假如有1000拥有两个列族的Region,那么就需要3.9GB的堆内存,还是没有存储任何数据的情况下
- HMaster要花大量的时间来分配和移动Region
- 过多Region会增加ZooKeeper的负担
- 每个Region会对应一个MapReduce任务,过多Region会产生太多任务
2.1.2 Region的分配
2.1.2.1 启动时的分配步骤
- Master启动时调用 AssignmentManager。
- AssignmentManager 查看hbase:meta中已经分配好的Region
- 如果Regiond的分配依然有效的话 (如果RegionServer 仍然在线的话) 维持当前分配
- 如果分配失效,LoadBalancerFactory 会被调用来分配region. 负载均衡器(HBase 1.0默认使用StochasticLoadBalancer ) 分配任务到Region Server中
- 如果需要的话,Region Server分配信息会更新到hbase:meta中。RegionServer启动时调用启动代码来启动region。
2.1.2.2 RegionServer失效时的分配步骤
- Region Server挂掉后它上面的regions变得不可用。
- Master检测到Region Server挂掉了。
- 失效Region Server上的region分配会被认为无效并采用跟启动时同样顺序的步骤分配region
- 正在进行的查询操作会重新执行,不会丢失
- 切换动作要在以下时间内完成: ZooKeeper session timeout + split time + assignment/replay time
2.1.3 Region的位置选择
Region的位置选择通过HDFS的复制机制完成
1)步骤:
- 第一个副本写在本地节点
- 第二副本写到另一个机上任意节点
- 第三个副本写到跟第二副本相同机架不同节点的其他节点
- 后面的副本将写到集群中的任意节点中。
2)要点:
- 选址是在flush或者compaction之后执行的
- 当RegionServer失效后,其上的Region被转移到其他的RegionServer,那么此时被转移的Region不具备数据本地性,直到下一次compaction执行之后才重新具备数据本地性
2.1.4 Region的切分
- 当Region的大小达到指定的阀值时,RegionServer会执行Region的切分
- 该操作由RegionServer单独执行,Master不参与
- 分裂执行完毕后,会将子Region添加到hbase:meta并且汇报给Master
- 可以自定义切分策略,可以在hbase-site.xml设置
<property>
<name>hbase.regionserver.region.split.policy</name>
<value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy</value></property>
- 支持手动执行切分
- 可以指定切分点
2.1.5 Region的合并
2.1.5.1 意义
- 当存在大量没有数据的region时,执行region的合并来避免region过多
- 之所以会存在大量没有数据的region是为了避免region到达阀值引起分裂的开销,创建表格时先进行预分区。
2.1.5.2 步骤
- 客户端发送指令给Master
- Master收到指令后将要合并的region移动到指定的RegionServer
- Master发送Merge请求给指定的RegionServer执行合并操作
- 最后将被合并的regions从hbase:meta中删除并添加合并后的region
2.2 Store
- 以列族为单元,即对应表中每个region中一个列族
- 包含一个MemStore和0到多个StoreFile(HFile)
2.2.1 MemStore
- 将修改信息缓存在内存当中
- 信息格式为Cell/KeyValue
- 当flush触发时,MemStore会生成快照保存起来,新的MemStore会继续接收修改信息,指导flush完成之后快照会被删除
- 当一个MemStore flush发生时,属于同一个region的memStore会一起flush
2.2.2.1 MemStore Flush的触发情况
- MemStore的大小达到单个MemStore阀值
- RegionServer中所有MemStore的使用率超过RS中MemStore上限值,该Server上所有MemStore会执行flush直到完成或者小于RS中MemStore安全值
- RegionServer中WAL超过WAL阀值
单个MemStore阀值:hbase.hregion.memstore.flush.size RS中MemStore上限值:hbase.regionserver.global.memstore.upperLimit
RS中MemStore安全值:hbase.regionserver.global.memstore.lowerLimit WAL阀值:hbase.regionserver.max.logs
2.3 StoreFile/HFile
2.3.1 格式
2.3.1.1 概念:
- Data Block Size:数据块大小。默认为64KB。因为查询key是按照顺序查询的,所以需要选择合适的Size来避免一个Block包含过多Key/Value对。
- Maximum Key Length:最大key长度。10-100字节是比较合适的大小,key的形式:rowkey+column family:qualifier+timestamp
- Maximum File Size:最大File大小。Trailer、File-Info和Data-Index都会在读取和写入时存到内存中,所以最好保证File的大小在合理的范围,避免占用过多内存。
- Compression Algorithm:压缩算法。
- 好处:
- 减少磁盘I/O
- 提高传输效率和减少磁盘空间
- 减少读取请求的返回量
- 支持的压缩库
- GZ
- LZO
2.3.1.2 HFile 结构
结构图如下:
Trailer结构
- Data Block:存储键值对的长度和值
- Meta Block:用户定义元数据
- File Info:关于HFile的元数据
- Data Index:Data Block的索引,也就是每个Block的第一个Key的偏移量
- Trailer:固定的源数据,用于存储以上每个部分的偏移量,读取HFile时首先要读取Trailer。
2.3.2 KeyValue
KeyValue以字节数组的形式存储,包含以下部分:
- keylength
- valuelength
- key
- value
Key的格式如下:
- rowlength
- row (也就是the rowkey)
- columnfamilylength
- columnfamily
- columnqualifier
- timestamp
- keytype (例如 Put, Delete, DeleteColumn, DeleteFamily)
2.4 Scan 步骤
- 当客户端提交scan请求时,HBase会创建为每个Region创建RegionScanner 实例来处理scan请求
- RegionScanner 包含一组StoreScanner实例,每个列族对应一个StoreScanner实例
- 每个StoreScanner实例包含一组StoreFileScanner实例, 每个toreFileScanner实例对应每个列族的HFile, 同时包含一组对应MemStore的KeyValueScanner。
- The two lists are merged into one, which is sorted in ascending order with the scan object for the MemStore at the end of the list.
- 当StoreFileScanner实例被构造, 会生成MultiVersionConcurrencyControl 读取点, 就是当前的memstoreTS, 用来过滤掉
2.5 Compaction
2.5.1 Minor Compaction(次压缩)
HBase会自动挑选小的临近的HFiles将它们重新写到一些大的HFiles中。这个过程称为次压缩。次压缩通过将更小的files写到一些大的flies进行合并操作来实现减少file的数量。
2.5.2 Major Compaction(主压缩)
- 合并一个Region中每一个列族的所有HFile写到一个HFile中
- 会删除掉那些标记删除和过期的cells。提高了读取性能
- 将所有数据进行了重写,产生大量的I/O开销或者网络开销,称为写放大
- 自动执行,通常安排在周末或者晚上
2.6 Region 负载均衡
当region分裂之后,RS之间的region数量差距变大时,HMaster便会执行负载均衡来调整部分region的位置,使得每个RS的region数量保持在合理范围之内,负载均衡会引起region的重新定位,使得涉及的region不具备数据本地性,即HFile和region不在同一个DataNode。这种情况会在major compaction 之后得到解决。