本文共 4286 字,大约阅读时间需要 14 分钟。
HBase的原型是Google的BigTable论文,受到了该论文思想的启发,目前作为Hadoop的子项目来开发维护,用于支持结构化的数据存储。其官方网站为:http://hbase.apache.org。
HBase是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBASE技术可在廉价PC Server上搭建起大规模结构化存储集群。其目标是存储并处理大型数据,通过普通硬件配置,处理由成千上万的行和列所组成的大型数据。
虽然HBase是Google Bigtable的开源实现,但也有很多不同之处。例如,Bigtable利用GFS作为文件存储系统,而HBase利用Hadoop HDFS。Bigtable运行MAPREDUCE来处理海量数据,而HBase同样利用Hadoop MapReduce来处理海量数据;Bigtable利用Chubby作为协同服务,而HBase利用Zookeeper作为对应。
海量存储
Hbase适合存储PB级别的海量数据,在PB级别的数据以及采用廉价PC存储的情况下,能在几十到百毫秒内返回数据。这与Hbase的极易扩展性息息相关。正是因为Hbase的良好的扩展性,才为海量数据的存储提供了便利。列式存储
Hbase是根据列族来存储数据的。列族下面可以有非常多的列,列族在创建表的时候就必须指定。极易扩展
Hbase的扩展性主要体现在两个方面,一个是基于上层处理能力(RegionServer)的扩展,一个是基于存储的扩展(HDFS)。通过横向添加RegionSever的机器,进行水平扩展,提升Hbase上层的处理能力,提升Hbsae服务更多Region的能力。高并发
由于目前大部分使用Hbase的架构,都是采用的廉价PC,单个IO的延迟其实并不小,通常在几十到上百ms之间。这里说的高并发,主要是在并发的情况下,Hbase的单个IO延迟下降并不多。能获得高并发、低延迟的服务。稀疏
稀疏主要是针对Hbase列的灵活性。在列族中,你可以指定任意多的列,在列数据为空的情况下,是不会占用存储空间的。Hbase架构如图1所示:
(此处应有图片,已去除)从图中可以看出Hbase是由Client、Zookeeper、Master、RegionServer、HDFS等几个组件组成的。下面来介绍几个组件的相关功能:
Client
Client包含了访问Hbase的接口,另外Client还维护了对应的cache来加速Hbase的访问,比如cache的.META.元数据的信息。Zookeeper
HBase通过Zookeeper来做Master的高可用、RegionServer的监控、元数据的入口以及集群配置的维护等工作。具体工作如下:通过Zoopkeeper来保证集群中只有1个Master在运行,如果Master异常,会通过竞争机制产生新的Master提供服务;通过Zoopkeeper来监控RegionServer的状态,当RegionSevrer有异常的时候,通过回调的形式通知Master RegionServer上下线的信息;通过Zoopkeeper存储元数据的统一入口地址。Master
master节点的主要职责如下:为RegionServer分配Region;维护整个集群的负载均衡;维护集群的元数据信息;发现失效的Region,并将失效的Region分配到正常的RegionServer上;当RegionSever失效的时候,协调对应Hlog的拆分。RegionServer
RegionServer直接对接用户的读写请求,是真正的“干活”的节点。它的功能概括如下:管理Master为其分配的Region;处理来自客户端的读写请求;负责和底层HDFS的交互,存储数据到HDFS;负责Region变大以后的拆分;负责Storefile的合并工作。HDFS
HDFS为Hbase提供最终的底层数据存储服务,同时为Hbase提供高可用(Hlog存储在HDFS)的支持。具体功能概括如下:提供元数据和表数据的底层分布式存储服务;数据多副本,保证的高可靠和高可用性。功能:
1.监控RegionServer 2.处理RegionServer故障转移 3.处理元数据的变更 4.处理region的分配或转移 5.在空闲时间进行数据的负载均衡 6.通过Zookeeper发布自己的位置给客户端功能:
1.负责存储HBase的实际数据 2.处理分配给它的Region 3.刷新缓存到HDFS 4.维护Hlog 5.执行压缩 6.负责处理Region分片1.Write-Ahead logs
HBase的修改记录,当对HBase读写数据的时候,数据不是直接写进磁盘,它会在内存中保留一段时间(时间以及数据量阈值可以设定)。但把数据保存在内存中可能有更高的概率引起数据丢失,为了解决这个问题,数据会先写在一个叫做Write-Ahead logfile的文件中,然后再写入内存中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。2.Region
Hbase表的分片,HBase表会根据RowKey值被切分成不同的region存储在RegionServer中,在一个RegionServer中可以有多个不同的region。3.Store
HFile存储在Store中,一个Store对应HBase表中的一个列族。4.MemStore
顾名思义,就是内存存储,位于内存中,用来保存当前的数据操作,所以当数据保存在WAL中之后,RegionServer会在内存中存储键值对。5.HFile
这是在磁盘上保存原始数据的实际的物理文件,是实际的存储文件。StoreFile是以Hfile的形式存储在HDFS的。首先保证Zookeeper集群的正常部署,并启动之:
[lxl@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start[lxl@hadoop103 zookeeper-3.4.10]$ bin/zkServer.sh start[lxl@hadoop104 zookeeper-3.4.10]$ bin/zkServer.sh start
Hadoop集群的正常部署并启动:
[lxl@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh[lxl@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
解压HBase到指定目录:
[lxl@hadoop102 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module
修改HBase对应的配置文件:
1)hbase-env.sh修改内容:export JAVA_HOME=/opt/module/jdk1.8.0_144export HBASE_MANAGES_ZK=false
2)hbase-site.xml修改内容:
hbase.rootdir hdfs://hadoop102:9000/hbase hbase.cluster.distributed true hbase.master.port 16000 hbase.zookeeper.quorum hadoop102:2181,hadoop103:2181,hadoop104:2181 hbase.zookeeper.property.dataDir /opt/module/zookeeper-3.4.10/zkData
3)regionservers:
hadoop102 hadoop103 hadoop1044)软连接Hadoop配置文件到Hbase:
[lxl@hadoop102 module]$ ln -s /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml[lxl@hadoop102 module]$ ln -s /opt/module/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml
[lxl@hadoop102 module]$ xsync hbase/
启动方式1:
[lxl@hadoop102 hbase]$ bin/hbase-daemon.sh start master[lxl@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver
启动方式2:
[lxl@hadoop102 hbase]$ bin/start-hbase.sh
停止服务:
[lxl@hadoop102 hbase]$ bin/stop-hbase.sh
启动成功后,可以通过“host:port”的方式来访问HBase管理页面,例如:
http://hadoop102:16000转载地址:http://loqbz.baihongyu.com/