Hive 架构与表类型
一. Hive 架构
1.1 hive 的简介
Hive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类 SQL 查询功能。
其本质是将 SQL 转换为 MapReduce/Spark 的任务进行运算,底层由 HDFS 来提供数据的存储,说白了 hive 可以理解为一个将 SQL 转换为 MapReduce/Spark 的任务的工具,甚至更进一步可以说 hive 就是一个 MapReduce/Spark Sql 的客户端
为什么要使用 hive ?
主要的原因有以下几点:
学习 MapReduce 的成本比较高, 项目周期要求太短, MapReduce 如果要实现复杂的查询逻辑开发的难度是比较大的。
而如果使用 hive, hive 采用操作接口类似 SQL 语法, 提高快速开发的能力. 避免去书写 MapReduce,减少学习成本, 而且提供了功能的扩展
hive 的特点:
可扩展 : Hive 可以自由的扩展集群的规模,一般情况下不需要重启服务。
延展性 : Hive 支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。
容错 : 良好的容错性,节点出现问题 SQL 仍可完成执行。
1.2 hive 的架构

基本组成:
用户接口:包括 CLI、JDBC/ODBC、WebGUI。其中,CLI(command line interface)为 shell 命令行;JDBC/ODBC 是 Hive 的 JAVA 实现,与传统数据库 JDBC 类似;WebGUI 是通过浏览器访问 Hive。
元数据存储:通常是存储在关系数据库如 mysql/derby 中。Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。
解释器、编译器、优化器、执行器:完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。
1.3 hive 与 hadoop 的关系
Hive 利用 HDFS 存储数据,利用 MapReduce 查询分析数据

1.4 hive 与传统数据库对比
hive 主要是用于海量数据的离线数据分析

查询语言。由于 SQL 被广泛的应用在数据仓库中,因此,专门针对 Hive 的特性设计了类 SQL 的查询语言 HQL。熟悉 SQL 开发的开发者可以很方便的使用 Hive 进行开发。
数据存储位置。Hive 是建立在 Hadoop 之上的,所有 Hive 的数据都是存储在 HDFS 中的。而数据库则可以将数据保存在块设备或者本地文件系统中。
数据格式。Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、”\t”、”\x001″)、行分隔符(”\n”)以及读取文件数据的方法(Hive 中默认有三个文件格式 TextFile,SequenceFile 以及 RCFile)。由于在加载数据的过程中,不需要从用户数据格式到 Hive 定义的数据格式的转换,因此,Hive 在加载的过程中不会对数据本身进行任何修改,而只是将数据内容复制或者移动到相应的 HDFS 目录中。而在数据库中,不同的数据库有不同的存储引擎,定义了自己的数据格式。所有数据都会按照一定的组织存储,因此,数据库加载数据的过程会比较耗时。
数据更新。由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。而数据库中的数据通常是需要经常进行修改的,因此可以使用 INSERT INTO ... VALUES 添加数据,使用 UPDATE ... SET 修改数据。
索引。之前已经说过,Hive 在加载数据的过程中不会对数据进行任何处理,甚至不会对数据进行扫描,因此也没有对数据中的某些 Key 建立索引。Hive 要访问数据中满足条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于 MapReduce 的引入, Hive 可以并行访问数据,因此即使没有索引,对于大数据量的访问,Hive 仍然可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较高,决定了 Hive 不适合在线数据查询。
执行。Hive 中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的,而数据库通常有自己的执行引擎。
执行延迟。之前提到,Hive 在查询数据的时候,由于没有索引,需要扫描整个表,因此延迟较高。另外一个导致 Hive 执行延迟高的因素是 MapReduce 框架。由于 MapReduce 本身具有较高的延迟,因此在利用 MapReduce 执行 Hive 查询时,也会有较高的延迟。相对的,数据库的执行延迟较低。当然,这个低是有条件的,即数据规模较小,当数据规模大到超过数据库的处理能力的时候,Hive 的并行计算显然能体现出优势。
可扩展性。由于 Hive 是建立在 Hadoop 之上的,因此 Hive 的可扩展性是和 Hadoop 的可扩展性是一致的(世界上最大的 Hadoop 集群在 Yahoo!,2009 年的规模在 4000 台节点左右)。而数据库由于 ACID 语义的严格限制,扩展行非常有限。目前最先进的并行数据库 Oracle 在理论上的扩展能力也只有 100 台左右。
数据规模。由于 Hive 建立在集群上并可以利用 MapReduce 进行并行计算,因此可以支持很大规模的数据;对应的,数据库可以支持的数据规模较小。
总结:hive 具有 sql 数据库的外表,但应用场景完全不同,hive 只适合用来做批量数据统计分析。
1.5 hive 的数据存储
Hive 中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持 Text,SequenceFile,ParquetFile,ORC 格式 RCFILE 等)
SequenceFile 是 hadoop 中的一种文件格式: 文件内容是以序列化的 kv 对象来组织的
只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。
Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。
db:在 hdfs 中表现为
hive.metastore.warehouse.dir
目录下一个文件夹。table:在 hdfs 中表现所属 db 目录下一个文件夹。
external table:与 table 类似,不过其数据存放位置可以在任意指定路径。
partition:在 hdfs 中表现为 table 目录下的子目录。
bucket:在 hdfs 中表现为同一个表目录下根据 hash 散列之后的多个文件。
二、Hive 表类型
2.1 Hive 数据类型
Hive 的基本数据类型有:TINYINT,SAMLLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,TIMESTAMP(V0.8.0+)和BINARY(V0.8.0+)
。
Hive 的集合类型有:STRUCT,MAP和ARRAY
。
Hive 主要有四种数据模型(即表):内部表、外部表、分区表和桶表。
表的元数据保存传统的数据库的表中,当前 hive 只支持 Derby 和 MySQL 数据库。
2.2 Hive 内部表
Hive 中的内部表和传统数据库中的表在概念上是类似的,Hive 的每个表都有自己的存储目录,除了外部表外,所有的表数据都存放在配置在hive-site.xml
文件的${hive.metastore.warehouse.dir}/table_name
目录下。
创建内部表:
2.3 Hive 外部表
被 external 修饰的为外部表(external table),外部表指向已经存在在 Hadoop HDFS 上的数据,除了在删除外部表时只删除元数据而不会删除表数据外,其他和内部表很像。
创建外部表:
2.4 Hive 分区表
分区表的每一个分区都对应数据库中相应分区列的一个索引,但是其组织方式和传统的关系型数据库不同。在 Hive 中,分区表的每一个分区都对应表下的一个目录,所有的分区的数据都存储在对应的目录中。
比如说,分区表 partitinTable 有包含 nation(国家)、ds(日期)和 city(城市)3 个分区,其中 nation = china,ds = 20130506,city = Shanghai 则对应 HDFS 上的目录为:
/datawarehouse/partitinTable/nation=china/city=Shanghai/ds=20130506/
。
分区中定义的变量名不能和表中的列相同。
创建分区表:
2.5 Hive 分桶表
桶表就是对指定列进行哈希(hash)计算,然后会根据 hash 值进行切分数据,将具有不同 hash 值的数据写到每个桶对应的文件中。
将数据按照指定的字段进行分成多个桶中去,说白了就是将数据按照字段进行划分,可以将数据按照字段划分到多个文件当中去。
创建分桶表:
2.6 Hive 视图
在 Hive 中,视图是逻辑数据结构,可以通过隐藏复杂数据操作(Joins, 子查询, 过滤,数据扁平化)来于简化查询操作。
与关系数据库不同的是,Hive 视图并不存储数据或者实例化。一旦创建 HIve 视图,它的 schema 也会立刻确定下来。对底层表后续的更改(如 增加新列)并不会影响视图的 schema。如果底层表被删除或者改变,之后对视图的查询将会 failed。基于以上 Hive view 的特性,我们在 ETL 和数据仓库中对于经常变化的表应慎重使用视图。
创建视图:
创建视图的时候是不会触发 MapReduce 的 Job,因为只存在元数据的改变。
但是,当对视图进行查询的时候依然会触发一个 MapReduce Job 进程:SHOW CREATE TABLE 或者 DESC FORMATTED TABLE 语句来显示通过 CREATE VIEW 语句创建的视图。以下是对 Hive 视图的 DDL 操作:
更改视图的属性:
重新定义视图:
删除视图:
参考文档:
版权声明: 本文为 InfoQ 作者【五分钟学大数据】的原创文章。
原文链接:【http://xie.infoq.cn/article/6949b16d4ebaeef022c003834】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论