HBase 入门指南
本文已收录至 GitHub,推荐阅读 👉 Java随想录
微信公众号:Java 随想录
原创不易,注重版权。转载请注明原作者和原文链接
HBase 是一个开源的非关系型分布式数据库,设计初衷是为了解决大量结构化数据存储与处理的需求。
它的核心理念、特性以及应用领域在当今的大数据环境中都发挥着至关重要的作用,这也是我们需要深入理解 HBase 的原因。在这篇文章中,我们将探讨 HBase 的基础概念,通过这些知识,读者将能够理解 HBase 的基本工作原理以及如何利用它处理数据问题。
HBase 特性
以下是 HBase 的一些关键特性和概念:
分布式架构:HBase 是一个分布式数据库,它可以在一个集群中运行在多个机器上。数据以水平分片的方式分布在不同的机器上,这样可以实现数据的高可用性和横向扩展性。
列存储: HBase 是面向列的数据库,它将数据存储在表中的列族中。每个列族可以包含多个列,这样可以方便地存储和检索具有不同结构的数据。HBase 的列存储特性使得可以高效地读取和写入大量数据。
强一致性:HBase 提供强一致性的读写操作。当数据被写入或读取时,HBase 会确保所有相关的副本都是最新的。这使得 HBase 非常适合需要强一致性的应用场景,如金融、电信等领域。
高可扩展性:HBase 可以轻松地扩展到大规模的数据集和集群。通过添加更多的机器和分片数据,可以线性地扩展存储容量和吞吐量。
快速读写:HBase 是为了高性能而设计的。它使用了内存和硬盘的组合来存储数据,可以实现快速的读写操作。此外,HBase 还支持批量写入和异步写入,进一步提高了写入性能。
灵活的数据模型:HBase 提供了灵活的数据模型,可以根据应用程序的需求设计表结构。它支持动态添加列,并且可以高效地执行范围查询和单行读写操作。
集成 Hadoop 生态系统:HBase 与 Hadoop 生态系统紧密集成,可以与 Hadoop 分布式文件系统(HDFS)和 Hadoop 的计算框架(如 MapReduce)无缝配合使用。这使得 HBase 能够处理大规模的数据存储和分析任务。
Hadoop 的限制
尽管 Hadoop 是一个强大的分布式计算框架,但它也存在一些不足之处,与 HBase 相比,以下是 Hadoop 的一些限制:
实时性:Hadoop 主要用于批处理任务,对于实时性要求较高的应用场景,如实时数据分析和流式处理,Hadoop 的延迟可能会比较高。Hadoop 的 MapReduce 模型通常不适合处理需要即时响应的数据处理任务。
存储效率:Hadoop 在存储效率方面存在一些问题。为了提供容错性和可靠性,Hadoop 将数据复制多次存储在不同的节点上,这会导致存储开销增加。相对于 HBase 的列存储模型,Hadoop 的存储效率可能较低。
复杂性:Hadoop 的配置和管理相对复杂,需要专业知识和经验。搭建和维护一个 Hadoop 集群需要处理许多参数和组件,对于初学者来说可能存在一定的学习曲线。
扩展性限制:虽然 Hadoop 具有良好的可扩展性,可以通过添加更多的节点来扩展集群的存储和计算能力,但在某些情况下,随着集群规模的增加,管理和调度节点可能变得更加困难。
处理复杂查询的限制:Hadoop 的主要计算模型是 MapReduce,它适合处理简单的计算任务,但对于复杂的查询和数据分析,如复杂聚合、连接和实时查询等,Hadoop 的性能可能不如专门设计的分析数据库。
基本概念
NameSpace
命名空间,类似于关系型数据库的 Database 概念,每个命名空间下有多个表。
HBase 自带两个命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间,这两个命名空间默认是不展示的。
Table
类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。因为数据存储是稀疏的,空(null)列不占用存储空间,所以往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。
RowKey
HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。
Column
HBase 中的每个列都由**Colunn Family (列族)和 Column Qualifier (列限定符)**进行限定,例如 info: name, info: age。
建表时,只需指明列族,而列限定符无需预先定义。
TimeStamp
用于标识数据的不同版本(version),每条数据写入时,系统会自动为其加上该字段,其值为写入 HBase 的时间。
Cell
由 {rowkey, column Family :column Qualifier, timestamp} 唯一确定的单元,Cell 中的数据全部是字节码形式存贮。
一条数据有多个版本,每个版本都是一个 Cell。
存储结构
HBase 存储结构如下:
上面的数据会存储为下面这样:
行切分为 Region,列切分为 Store,Region 可以存放在其他机器上。
HBase 是基于 HDFS 的,而 HDFS 是不能够修改数据的,所以 HBase 也是不能修改数据的。HBase 使用时间戳实现修改功能。取数据的时候取最新时间戳的数据,取出来的就是最新的数据。
HBase 数据访问形式
HBase 数据访问可以通过以下几种形式进行:
单行读写(Get 和 Put):使用 HBase 提供的 API,可以通过指定行键(Row Key)来读取和写入单行数据。Get 操作可以根据行键从表中获取特定行的数据,而 Put 操作可以将数据写入表的指定行。
批量读写(Scan 和 Batch Put):HBase 支持批量读写操作,可以一次性读取或写入多行数据。Scan 操作可以按照一定的条件扫描表中的多行数据,而 Batch Put 操作可以一次性写入多行数据。
全表扫描(Scan):通过 Scan 操作,可以遍历整个表的数据,按照指定的条件进行过滤和筛选。可以设置起始行键和结束行键,还可以使用过滤器(Filter)进行更精确的数据查询。
列族范围扫描(Scan):HBase 中的数据以列族(Column Family)为单位进行存储,可以通过 Scan 操作对指定列族的数据进行范围扫描。这种方式可以提高数据查询的效率,只获取所需列族的数据,而不必读取整个表的数据。
过滤器(Filter):HBase 支持多种过滤器来进行数据的精确查询和过滤。可以使用行键过滤器(Row Filter)按照行键的条件进行数据过滤,还可以使用列族过滤器(Family Filter)、列限定符过滤器(Qualifier Filter)和值过滤器(Value Filter)等进行更细粒度的数据过滤。
原子性操作(Check-and-Put 和 Check-and-Delete):HBase 支持原子性操作,例如 Check-and-Put 和 Check-and-Delete。这些操作允许在写入数据之前进行检查,只有在满足指定条件的情况下才执行写入操作。
以上形式提供了不同的数据访问方式,可以根据具体的需求和查询条件选择适合的方式来访问和操作 HBase 中的数据。
架构体系
HBase 的架构体系是基于分布式存储和处理的设计。它包含了以下几个重要的组成部分:
HMaster:HMaster 是 HBase 集群的主节点,负责管理整个集群的元数据和协调各个 RegionServer 的工作。它维护了表的结构信息、分片规则、RegionServer 的负载均衡等,并协调分布式操作,如 Region 的分裂和合并。
RegionServer:RegionServer 是 HBase 集群中的工作节点,负责存储和处理数据。每个 RegionServer 管理多个 Region,每个 Region 负责存储表中的一部分数据。RegionServer 处理客户端的读写请求,负责数据的存储、读取和写入操作。
ZooKeeper:ZooKeeper 是一个分布式协调服务,被 HBase 用于管理集群的元数据和协调分布式操作。HBase 使用 ZooKeeper 来进行主节点的选举、故障检测、集群配置的同步等任务。
HDFS(Hadoop Distributed File System):HBase 使用 HDFS 作为底层的分布式文件系统,用于存储数据。HDFS 将数据分割成块并分布在不同的节点上,提供高可靠性和可扩展性的存储。
HBase 客户端:HBase 客户端是与 HBase 交互的应用程序或工具,用于发送读写请求和接收查询结果。客户端可以通过 HBase 的 Java API 或者命令行工具(如 HBase shell)来访问和操作 HBase 表。
表和列族:HBase 数据模型是基于表的,表由一个或多个列族(Column Family)组成。每个列族可以包含多个列(Column),列存储着实际的数据。表被分割成多个 Region 存储在不同的 RegionServer 上,每个 Region 负责存储一部分行数据。
这些组成部分共同构成了 HBase 的架构体系,实现了分布式存储和处理大规模数据集的能力。
HMaster 负责管理元数据和协调工作,RegionServer 存储和处理数据,ZooKeeper 提供分布式协调服务,HDFS 提供底层的分布式文件存储,而 HBase 客户端用于与 HBase 进行交互。表和列族的概念提供了数据的组织和存储方式。
HBase 组件
MemStore:每个 RegionServer 都有一个 MemStore,它是位于内存中的临时数据存储区域。当客户端写入数据时,数据首先被写入到 MemStore 中,以提供快速的写入性能。
WAL(Write-Ahead-Log):WAL 是 HBase 的日志文件,用于记录所有的写操作。当数据被写入到 MemStore 时,相应的写操作也会被写入 WAL 中,以保证数据的持久性和故障恢复能力。
StoreFile:当 MemStore 中的数据达到一定大小阈值后,会被刷新到磁盘上的 StoreFile 中。StoreFile 是 HBase 中实际持久化存储数据的文件形式,它包含了已经写入的数据和相应的索引。
HFile:HFile 是 StoreFile 的底层存储格式,采用了块索引和时间范围索引的方式,提供了高效的数据查找和扫描能力。HFile 使用块(Block)来组织数据,并采用压缩和编码技术来减小存储空间。
MemStore 提供了临时的内存存储,StoreFile 提供了持久化的磁盘存储,WAL 用于保证数据的持久性。这种架构设计使得 HBase 能够提供高可用性、高性能和可扩展性的分布式存储和处理能力。
HBase 读写流程
读流程
客户端发送读取请求:客户端向 HBase 集群发送读取请求,包括所需的表名、行键(Row Key)以及其他可选的参数(如列族、列限定符等)。
定位 RegionServer 和 Region:HBase 的客户端会与 ZooKeeper 进行通信,获取到存储有所需数据的 Region 所在的 RegionServer 的信息。
RegionServer 处理请求:客户端发送的读取请求到达对应的 RegionServer,RegionServer 会根据请求的行键定位到包含所需数据的 Region。
数据读取:RegionServer 首先会从 MemStore 中查找数据,如果数据在 MemStore 中找到,则直接返回给客户端。如果数据不在 MemStore 中,RegionServer 会在磁盘上的 StoreFile 中进行查找,根据索引定位到所需的数据块,并将数据块读取到内存中进行处理。
数据返回给客户端:RegionServer 将读取到的数据返回给客户端,客户端可以根据需要对数据进行进一步的处理和分析。
写流程
客户端发送写入请求:客户端向 HBase 集群发送写入请求,包括表名、行键、列族、列限定符和对应的值等信息。
定位 RegionServer 和 Region:客户端与 ZooKeeper 通信,获取存储目标数据的 Region 所在的 RegionServer 的信息。
RegionServer 处理请求:客户端发送的写入请求到达对应的 RegionServer,RegionServer 根据行键定位到目标 Region。
写入到 MemStore:RegionServer 将写入请求中的数据写入到目标 Region 对应的内存中的 MemStore。写入到 MemStore 是一个追加操作,将数据追加到内存中的 MemStore 中,并不直接写入磁盘。
WAL 日志记录:同时,RegionServer 将写入请求中的操作写入 WAL(Write-Ahead-Log)日志文件,确保数据的持久性和故障恢复能力。
MemStore 刷新到磁盘:当 MemStore 中的数据达到一定的大小阈值时,RegionServer 会将 MemStore 中的数据刷新到磁盘上的 StoreFile 中。刷新过程将内存中的数据写入到磁盘上的 StoreFile,并生成相应的索引。
数据返回给客户端:写入完成后,RegionServer 向客户端发送写入成功的响应,表示数据已成功写入。
MemStore Flush
在 HBase 中,MemStore Flush 是将内存中的数据刷新到磁盘上的 StoreFile 的过程。当 MemStore 中的数据达到一定大小阈值时,或者达到了一定的时间限制,HBase 会触发 MemStore Flush 操作,以将数据持久化到磁盘,确保数据的持久性和可靠性。
下面是 MemStore Flush 的基本过程:
MemStore Flush 触发:当 MemStore 中的数据量达到一定的阈值(由配置参数控制)或者达到了一定的时间限制时,HBase 会触发 MemStore Flush 操作。这个阈值和时间限制可以根据需求进行配置,以平衡写入性能和数据持久性的要求。
写入内存快照:在触发 Flush 操作时,HBase 会先将 MemStore 中的数据做一个内存快照(Snapshot),以保证在 Flush 期间继续接收新的写入请求。
刷写到磁盘:内存快照完成后,HBase 会将内存中的数据按照列族的维度划分为多个 KeyValue,然后将这些 KeyValue 写入磁盘上的 StoreFile。StoreFile 采用 HFile 格式,用于持久化存储数据。
更新 Region 元数据:完成刷写到磁盘后,HBase 会更新 Region 的元数据,包括最新的 StoreFile 列表和相应的时间戳等信息。
MemStore 清空:一旦数据刷写到磁盘上的 StoreFile,HBase 会清空相应的 MemStore,以释放内存空间用于接收新的写入请求。
通过 MemStore Flush 操作,HBase 可以将内存中的数据持久化到磁盘,以确保数据的持久性和可靠性。Flush 操作的频率和成本可以通过配置参数进行调整,以适应不同的应用场景和性能需求。频繁的 Flush 操作可能会影响写入性能,而较长的 Flush 间隔可能会增加数据丢失的风险。因此,根据实际情况,需要合理设置 Flush 操作的参数,以平衡数据的持久性和写入性能的要求。
参数说明
MemStore Flush 在 HBase 中由以下几个参数进行控制,它们的含义如下:
hbase.hregion.memstore.flush.size:该参数指定了 MemStore 的大小阈值。当 MemStore 中的数据量达到或超过这个阈值时,将触发 MemStore Flush 操作。该参数的默认值为 128MB。这个参数在 HBase 0.98 版本及更高版本中生效。在旧版本中,类似的参数名为 hbase.hregion.memstore.flush.size.upper,但其含义和作用相同。
hbase.hregion.memstore.block.multiplier:该参数是用来设置 MemStore 大小阈值的倍数。当 MemStore 的大小超过 hbase.hregion.memstore.flush.size 乘以 hbase.hregion.memstore.block.multiplier 时,将触发 MemStore Flush 操作。默认值为 2。这个参数在 HBase 0.98 版本及更高版本中生效。
hbase.hregion.memstore.flush.size.lower.limit:该参数定义了 MemStore 大小的下限限制。当 MemStore 中的数据量小于此下限时,不会触发 MemStore Flush 操作。该参数的默认值为 0。在 HBase 2.0 版本及更高版本中生效。
hbase.hregion.memstore.flush.size.upper.limit:该参数定义了 MemStore 大小的上限限制。当 MemStore 中的数据量超过此上限时,将强制触发 MemStore Flush 操作。该参数的默认值为 Long.MAX_VALUE。在 HBase 2.0 版本及更高版本中生效。
上述的 1 和 2,满足任一条件都会触发 MemStore Flush 操作。
这些参数需要根据具体的应用场景和性能要求进行合理的设置。较小的 Flush 阈值可以提高数据的持久性,但可能会增加 Flush 的频率和写入的开销;较大的 Flush 阈值可以减少 Flush 的频率和开销,但可能会增加数据丢失的风险。
因此,需要根据应用的读写特征和数据的重要性,选择合适的参数值。
StoreFile Compaction
StoreFile Compaction(文件合并)是 HBase 中的一个重要操作,它用于合并和优化存储在磁盘上的数据文件(StoreFile)。StoreFile Compaction 可以帮助减少磁盘空间占用、提高读取性能,并且在某些情况下可以提高写入性能。
StoreFile Compaction 的基本过程如下:
Compact Selection(选择合并):在进行 Compaction 之前,HBase 首先进行选择性合并。它会根据一定的策略,如大小、时间戳等,选择一组需要合并的 StoreFile。这样可以限制合并的数据量,避免一次合并过多数据。
Minor Compaction(小规模合并):Minor Compaction 主要合并较少数量的 StoreFile。它通过创建一个新的 StoreFile,并从多个旧的 StoreFile 中选择合并的数据,将其合并到新的文件中。这个过程中,旧的 StoreFile 不会被删除,新的 StoreFile 会被创建并写入新的数据。
Major Compaction(大规模合并):Major Compaction 是一种更为综合和耗时的合并操作。它会合并一个或多个 HBase 表的所有 StoreFile。Major Compaction 将会创建一个新的 StoreFile,并将所有旧的 StoreFile 中的数据合并到新的文件中。与 Minor Compaction 不同,Major Compaction 还会删除旧的 StoreFile,从而释放磁盘空间。
Compaction Policy(合并策略):HBase 提供了不同的合并策略,可以根据数据特点和应用需求进行选择。常见的合并策略包括 SizeTieredCompactionPolicy(按大小合并)和 DateTieredCompactionPolicy(按时间戳合并)等。
通过 StoreFile Compaction,HBase 可以减少磁盘上的存储空间占用,提高读取性能,同时合并操作还可以优化数据布局,加速数据的访问。合适的合并策略的选择可以根据数据的访问模式和应用需求,以达到最佳的性能和存储效率。
参数说明
StoreFile Compaction 过程中涉及到的一些相关参数及其含义如下:
hbase.hstore.compaction.min:指定了进行 Minor Compaction 的最小文件数。当 StoreFile 的数量达到或超过该值时,才会触发 Minor Compaction。默认值为 3。
hbase.hstore.compaction.max:指定了进行 Major Compaction 的最大文件数。当 StoreFile 的数量超过该值时,将触发 Major Compaction。默认值为 10。
hbase.hstore.compaction.ratio:指定了触发 Major Compaction 的比率。当一个 Region 中的 StoreFile 的总大小超过其最大文件大小的比率时,将触发 Major Compaction。默认值为 1.2。
hbase.hstore.compaction.min.size:指定了进行 Compaction 的最小文件大小。当一个 StoreFile 的大小小于该值时,将不会参与 Compaction。默认值为 1 KB。
hbase.hstore.compaction.max.size:指定了进行 Compaction 的最大文件大小。当一个 StoreFile 的大小超过该值时,将不会参与 Compaction。默认值为 Long.MAX_VALUE,即无限制。
hbase.hstore.compaction.enabled:指定了是否启用 Compaction。如果设置为 false,则不会触发任何 Compaction 操作。默认值为 true。
hbase.hstore.compaction.checker.interval.multiplier:指定了进行 Compaction 检查的时间间隔。实际检查的时间间隔为 hbase.hstore.compaction.checker.interval.multiplier 乘以 StoreFile 的平均大小。默认值为 1.0。
这些参数可以在 HBase 的配置文件(hbase-site.xml)中进行设置。通过调整这些参数的值,可以根据数据量、存储需求和性能要求来优化 Compaction 操作的触发条件和行为。
触发过程
以下是判断是否触发 Compaction 的过程:
判断是否满足进行 Minor Compaction 的条件:
检查 StoreFile 的数量是否达到或超过 hbase.hstore.compaction.min。如果是,则满足触发 Minor Compaction 的条件。
判断是否满足进行 Major Compaction 的条件:
检查 StoreFile 的数量是否超过 hbase.hstore.compaction.max。如果是,则满足触发 Major Compaction 的条件。
或者
计算 StoreFile 的总大小与最大文件大小之间的比率。如果超过 hbase.hstore.compaction.ratio,即 StoreFile 的总大小超过最大文件大小的比率,那么满足触发 Major Compaction 的条件。
对于即将进行 Compaction 的 StoreFile:
检查 StoreFile 的大小是否在 hbase.hstore.compaction.min.size 和 hbase.hstore.compaction.max.size 之间。如果不在这个范围内,则该文件将不会参与 Compaction。
检查是否启用 Compaction:
检查 hbase.hstore.compaction.enabled 的值是否为 true。如果为 false,则不会触发任何 Compaction 操作。
判断触发 Compaction 的时间间隔:
根据 hbase.hstore.compaction.checker.interval.multiplier 乘以 StoreFile 的平均大小,得出实际的检查时间间隔。
根据以上判断过程,HBase 在每个 RegionServer 上的每个 Store(列族)会根据配置参数进行定期的 Compaction 检查。一旦满足触发 Compaction 的条件,相应的 Minor Compaction 或 Major Compaction 将被触发,合并和优化存储的数据文件。这样可以提高读取性能、节省磁盘空间,并且在某些情况下可以提高写入性能。
Region Split
Region Split(区域分割)是 HBase 中的一个重要操作,它用于在数据增长过程中,将一个较大的 HBase 表的 Region(区域)划分成更小的子区域,以提高读写性能和负载均衡。
当一个 Region 的大小达到了预先配置的阈值时,HBase 将触发 Region Split 操作。Region Split 的基本过程如下:
Split Policy(分割策略):HBase 提供了多种分割策略,用于决定何时触发 Region Split。常见的分割策略包括按大小分割(Size-based Split)和按行数分割(Row-count-based Split)。这些策略可以根据数据特点和应用需求进行选择。
Split Selection(选择分割点):在触发分割之前,HBase 首先选择一个适当的分割点。分割点是指一个 RowKey,它将成为分割后的两个子区域的边界。选择分割点的策略可以是根据大小、行数或其他自定义逻辑进行选择。
Region Split(区域分割):一旦选择了分割点,HBase 将通过创建两个新的子区域来执行分割操作。原始的 Region 将被拆分成两个子区域,每个子区域负责存储分割点两侧的数据。同时,HBase 会为新的子区域生成新的 Region ID,并更新元数据信息。
常见的区域分割方式包括:
均匀分割(Even Split):将一个 Region 均匀地划分为两个子区域。分割点根据数据大小或行数进行选择,以保持两个子区域的大小相近。
预分区(Pre-splitting):在创建表时,可以提前定义多个分割点,将表划分为多个初始的子区域。这样可以在表创建之初就实现数据的均衡分布,避免后续的动态分割。
自定义分割(Custom Split):根据具体的业务需求和数据特点,可以通过自定义逻辑来选择分割点,实现更灵活的分割方式。
通过合理地使用区域分割,可以充分利用集群资源,提高读写性能和负载均衡能力。不同的分割策略和分割方式可以根据数据规模、访问模式和应用需求进行选择,以满足不同场景下的需求。
预分区
在 HBase 中进行预分区可以通过 HBase Shell 或 HBase API 进行操作。以下是使用 HBase Shell 进行预分区的示例:
打开 HBase Shell:
创建表并指定分区:
上述命令创建了一个名为 my_table
的表,并指定了三个分区点:'a'、'b' 和 'c'。这将创建四个初始的子区域。
查看表的分区情况:
这将显示表的详细信息,包括分区信息。
通过上述步骤,你可以在创建表时预先定义分区点,从而实现预分区。每个分区点将成为一个子区域的边界,确保数据在表创建时就能分布在多个子区域中,从而实现负载均衡和性能优化。
请注意,上述示例是使用 HBase Shell 进行预分区的简单示例。如果需要在编程中进行预分区,可以使用 HBase API,例如 Java API,通过在创建表时设置 SPLITS
参数来指定分区点。
以下是使用 HBase Java API 进行预分区的示例代码:
上述代码通过 HBase Java API 创建了一个名为 my_table
的表,并指定了三个分区点:'a'、'b' 和 'c'。这将创建四个初始的子区域。
请注意,在使用 Java API 进行预分区时,需要先建立与 HBase 的连接,并通过 HBase 管理器(Admin)执行表的创建操作,并设置 setSplitKeys(splitKeys)
方法来指定分区点。
通过上述示例代码,你可以在编程中使用 HBase Java API 实现预分区功能。
HBase 优化
查询优化
设置 Scan 缓存
在 HBase 中,可以通过设置Scan
对象的setCaching()
方法来调整Scan
缓存的大小。Scan
缓存用于指定每次扫描操作从 RegionServer 返回给客户端的行数。通过调整缓存大小,可以在一定程度上控制数据的读取性能和网络传输的开销。
以下是设置Scan
缓存的示例代码:
在上述示例中,setCaching()
方法将缓存大小设置为 500 行。可以根据实际需求调整这个值,需要根据数据大小、网络带宽和性能要求进行权衡。较大的缓存大小可以减少客户端与 RegionServer 之间的通信次数,提高读取性能,但同时也会增加内存消耗。较小的缓存大小可以减少内存消耗,但可能会增加通信次数和网络传输开销。
需要注意的是,setCaching()
方法设置的是每次扫描的缓存大小,并不是全局的设置。如果需要对整个表的扫描操作生效,需要在每次扫描时都设置缓存大小。
此外,还可以通过调整 HBase 的配置参数来全局设置缓存大小。在hbase-site.xml
配置文件中添加以下参数可以设置默认的缓存大小:
以上是通过代码和配置文件来设置Scan
缓存大小的方法,根据具体的应用场景和需求,可以选择适当的方式进行设置。
显示指定列
当使用 Scan 或者 GET 获取大量的行时,最好指定所需要的列,因为服务端通过网络传输到客户端,数据量太大可能是瓶颈。如果能有效过滤部分数据,能很大程度的减少网络 I/O 的花费。
在 HBase 中,可以使用Scan
或Get
操作来显示指定的列。下面分别介绍两种方式的用法:
使用
Scan
操作显示指定列:
在上述示例中,使用scan.addColumn()
方法来指定要显示的列族和列。在for
循环中,通过result.getValue()
方法获取指定列的值。
使用
Get
操作显示指定列:
在上述示例中,使用get.addColumn()
方法来指定要显示的列族和列。通过table.get()
方法获取行数据,并通过result.getValue()
方法获取指定列的值。
无论是使用Scan
还是Get
,都可以通过addColumn()
方法来指定要显示的列族和列。可以根据具体的需求,多次调用addColumn()
方法来显示多个列。
需要注意的是,HBase 中的列是以字节数组(byte[]
)形式表示的,因此在使用addColumn()
和getValue()
方法时,需要将列族和列名转换为字节数组。
禁用块缓存
如果批量进行全表扫描,默认是有缓存的,如果此时有缓存,会降低扫描的效率。
在 HBase 中,可以通过设置Scan
对象的setCacheBlocks()
方法来禁用块缓存。块缓存是 HBase 中的一种缓存机制,用于加快数据的读取操作。然而,在某些情况下,禁用块缓存可能是有益的,例如对于某些热点数据或者需要立即获取最新数据的场景。
以下是禁用Scan
块缓存的示例代码:
在上述示例中,setCacheBlocks(false)
方法将禁用Scan
操作的块缓存。
需要注意的是,禁用块缓存可能会增加对 HBase 存储的实际磁盘读取次数,并且在一些场景下可能导致性能下降。因此,在禁用块缓存之前,建议仔细评估应用需求和场景,确保禁用块缓存的决策是合理的。
对于经常读到的数据,建议使用默认值,开启块缓存。
写入优化
设置 AutoFlush
Htable 有一个属性是 AutoFlush,该属性用于支持客户端的批量更新,默认是 true,当客户端每收到一条数据,立刻发送到服务端,如果设置为 false,当客户端提交 put 请求时候,先将该请求在客户端缓存,到达阈值的时候或者执行 hbase.flushcommits(),才向 RegionServer 提交请求。
在 HBase 中,可以通过设置Table
对象的setAutoFlush()
方法来控制自动刷新(AutoFlush)行为。AutoFlush 决定了在何时将数据从客户端发送到 RegionServer 并写入到存储中。
以下是设置 AutoFlush 的示例代码:
在上述示例中,table.setAutoFlush(false)
方法将关闭 AutoFlush。这意味着在执行写操作时,数据不会立即被刷新到 RegionServer 和存储中,而是先缓存在客户端的内存中。只有当调用table.flushCommits()
方法时,数据才会被手动刷新到 RegionServer。
需要注意的是,关闭 AutoFlush 可以提高写入性能,尤其是在批量写入或者频繁写入的场景中。但是,关闭 AutoFlush 也会增加数据在客户端内存中的暂存时间,并增加了数据丢失的风险。因此,在关闭 AutoFlush 时,需要在适当的时机手动调用flushCommits()
方法来确保数据的持久性。
同时,还可以通过设置table.setWriteBufferSize()
方法来指定客户端写缓冲区的大小。这可以帮助在缓存中存储更多的数据,减少刷新到 RegionServer 的次数,提高写入性能。例如:
在上述示例中,将写缓冲区大小设置为 1MB。
总之,通过设置table.setAutoFlush(false)
和table.setWriteBufferSize()
方法,可以控制 AutoFlush 行为和客户端写缓冲区大小,以优化写入性能和数据刷新的策略。根据具体的应用需求和场景,可以进行适当的配置调整。
参数优化
Zookeeper 会话超时时间
属性:zookeeper.session.timeout
解释:默认值为 90000 毫秒(90s)。当某个 RegionServer 挂掉,90s 之后 Master 才能察觉到。可适当减小此值,尽可能快地检测 regionserver 故障,可调整至 20-30s,同时可以调整重试时间和重试次数
hbase.client.pause(默认值 100ms)
hbase.client.retries.number(默认 15 次)
设置 RPC 监听数量
属性:hbase.regionserver.handler.count
解释:默认值为 30,用于指定 RPC 监听的数量,可以根据客户端的请求数进行调整,读写请求较多时,增加此值。
手动控制 Major Compaction
属性:hbase.hregion.majorcompaction
解释:默认值:604800000 秒(7 天), Major Compaction 的周期,若关闭自动 Major Compaction,可将其设为 0。如果关闭一定记得自己手动合并,因为大合并非常有意义。
优化 HStore 文件大小
属性:hbase.hregion.max.filesize
解释:默认值 10737418240(10GB),如果需要运行 HBase 的 MR 任务,可以减小此值,因为一个 region 对应一个 map 任务,如果单个 region 过大,会导致 map 任务执行时间。过长。该值的意思就是,如果 HFile 的大小达到这个数值,则这个 region 会被切分为两个 Hfile。
优化 HBase 客户端缓存
属性:hbase.client.write.buffer
解释:默认值 2097152bytes(2M)用于指定 HBase 客户端缓存,增大该值可以减少 RPC 调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少 RPC 次数的目的。
指定 scan.next 扫描 HBase 所获取的行数
属性:hbase.client.scanner.caching
解释:用于指定 scan.next 方法获取的默认行数,值越大,消耗内存越大。
SpringBoot 中使用 HBase
添加 Maven 依赖:
配置 HBase 连接:
编写增删改查代码:
在上述代码中,HBaseConfig
类配置了 HBase 连接,通过 hbaseConnection()
方法创建 HBase 连接。HBaseService
类提供了 putData()
、deleteData()
和 getData()
方法,分别用于插入数据、删除数据和获取数据。
Scan
以下是使用 Scan 操作的示例代码:
在上述代码中,首先创建 HBase 配置对象 Configuration
,然后通过 ConnectionFactory
创建 HBase 连接 Connection
。接下来,通过连接获取表对象 Table
,指定要进行 Scan 操作的表名。然后创建 Scan
对象,并使用 addColumn
方法指定要查询的列族和列。最后,使用 getScanner
方法执行 Scan 操作,并遍历 ResultScanner
获取每一行的数据,并进行处理。
Phoenix
Phoenix 是一个开源的基于 Apache HBase 的关系型数据库引擎,它提供了 SQL 接口来访问 HBase 中存储的数据。它在 HBase 的基础上添加了 SQL 查询和事务功能,使得使用 HBase 的开发者可以使用熟悉的 SQL 语言进行数据操作和查询。
Phoenix 在 HBase 中的主要用途包括:
SQL 查询:Phoenix 允许开发者使用标准的 SQL 语句来查询和操作 HBase 中的数据,无需编写复杂的 HBase API 代码。这简化了开发过程,降低了使用 HBase 进行数据访问的门槛。
索引支持:Phoenix 提供了对 HBase 数据的二级索引支持,开发者可以使用 SQL 语句创建索引,从而加快查询速度。索引在数据查询和过滤中起到重要的作用,提高了数据的检索效率。
事务支持:Phoenix 引入了基于 MVCC(多版本并发控制)的事务机制,使得在 HBase 中进行复杂的事务操作成为可能。开发者可以通过 Phoenix 的事务功能来保证数据的一致性和可靠性。
SQL 函数和聚合:Phoenix 支持各种内置的 SQL 函数和聚合函数,如 SUM、COUNT、MAX、MIN 等,使得在 HBase 上进行数据统计和分析变得更加方便。
要在 HBase 中使用 Phoenix,需要先安装并配置好 Phoenix。以下是一个在 HBase 中使用 Phoenix 的示例代码:
添加 Maven 依赖: 在 Maven 项目的 pom.xml
文件中添加以下依赖:
创建 Phoenix 表: 在 HBase 中创建 Phoenix 表。可以使用 Phoenix 提供的 SQL 语法创建表和定义模式。例如,创建一个名为 users
的表:
使用 Phoenix 进行操作: 在 Java 代码中,可以使用 Phoenix 提供的 PhoenixConnection
和 PhoenixStatement
来执行 SQL 操作。
在上述代码中,需要将 <HBase ZooKeeper Quorum>
和 <HBase ZooKeeper Port>
替换为你的 HBase ZooKeeper 地址和端口。
通过创建 PhoenixConnection
并传递正确的 JDBC URL,可以获得连接对象。接下来,可以使用 createStatement()
方法创建 PhoenixStatement
对象,并使用 executeQuery()
方法执行 SQL 查询。
然后,可以使用 ResultSet
对象遍历查询结果,并提取所需的字段。在此示例中,遍历了 users
表的结果,并打印了每行的 ID、Name 和 Age。
最后,在总结 HBase 的基础概念时,我们应该强调其作为一个分布式、可扩展、大数据存储系统的关键特性。
它允许我们进行实时随机读写访问,以及在数十亿行和数百万列上进行高效操作。HBase 的设计理念源于 Google's Bigtable,并且与 Hadoop 生态系统紧密集成。通过使用 HBase,开发者和数据科学家可以更好地处理极大规模的数据并提供稳定、高性能的服务。总的来说,HBase 是解决当前大数据问题的一种强大工具。
感谢阅读,如果本篇文章有任何错误和建议,欢迎给我留言指正。
老铁们,关注我的微信公众号「Java 随想录」,专注分享 Java 技术干货,文章持续更新,可以关注公众号第一时间阅读。
一起交流学习,期待与你共同进步!
版权声明: 本文为 InfoQ 作者【码农BookSea】的原创文章。
原文链接:【http://xie.infoq.cn/article/0c9cf7e23f187321cbc2964e2】。文章转载请联系作者。
评论