Hive 企业级性能优化
Hive 作为大数据平台举足轻重的框架,以其稳定性和简单易用性也成为当前构建企业级数据仓库时使用最多的框架之一。
但是如果我们只局限于会使用 Hive,而不考虑性能问题,就难搭建出一个完美的数仓,所以 Hive 性能调优是我们大数据从业者必须掌握的技能。本文将给大家讲解 Hive 性能调优的一些方法及技巧。
Hive 性能问题排查方式
当我们发现一条 SQL 语句执行时间过长或者不合理时,我们就要考虑对 SQL 进行优化,优化首先得进行问题排查,那么我们可以通过哪些方式进行排查呢。
经常使用关系型数据库的同学可能知道关系型数据库的优化的诀窍-看执行计划。如 Oracle 数据库,它有多种类型的执行计划,通过多种执行计划的配合使用,可以看到根据统计信息推演的执行计划,即 Oracle 推断出来的未真正运行的执行计划;能够观察到从数据读取到最终呈现的主要过程和中间的量化数据。可以说,在 Oracle 开发领域,掌握合适的环节,选用不同的执行计划,SQL 调优就不是一件难事。
Hive 中也有执行计划,但是 Hive 的执行计划都是预测的,这点不像 Oracle 和 SQL Server 有真实的计划,可以看到每个阶段的处理数据、消耗的资源和处理的时间等量化数据。Hive 提供的执行计划没有这些数据,这意味着虽然 Hive 的使用者知道整个 SQL 的执行逻辑,但是各阶段耗用的资源状况和整个 SQL 的执行瓶颈在哪里是不清楚的。
想要知道 HiveSQL 所有阶段的运行信息,可以查看 YARN 提供的日志。查看日志的链接,可以在每个作业执行后,在控制台打印的信息中找到。如下图所示:
Hive 提供的执行计划目前可以查看的信息有以下几种:
查看执行计划的基本信息,即 explain;
查看执行计划的扩展信息,即 explain extended;
查看 SQL 数据输入依赖的信息,即 explain dependency;
查看 SQL 操作相关权限的信息,即 explain authorization;
查看 SQL 的向量化描述信息,即 explain vectorization。
在查询语句的 SQL 前面加上关键字 explain 是查看执行计划的基本方法。用 explain 打开的执行计划包含以下两部分:
作业的依赖关系图,即 STAGE DEPENDENCIES;
每个作业的详细信息,即 STAGE PLANS。
Hive 中的 explain 执行计划详解可看我之前写的这篇文章:Hive底层原理:explain执行计划详解
注:使用 explain 查看执行计划是 Hive 性能调优中非常重要的一种方式,请务必掌握!
总结:Hive 对 SQL 语句性能问题排查的方式:
使用 explain 查看执行计划;
查看 YARN 提供的日志。
Hive 性能调优的方式
为什么都说性能优化这项工作是比较难的,因为一项技术的优化,必然是一项综合性的工作,它是多门技术的结合。我们如果只局限于一种技术,那么肯定做不好优化的。
下面将从多个完全不同的角度来介绍 Hive 优化的多样性,我们先来一起感受下。
1. SQL 语句优化
SQL 语句优化涉及到的内容太多,因篇幅有限,不能一一介绍到,所以就拿几个典型举例,让大家学到这种思想,以后遇到类似调优问题可以往这几个方面多思考下。
1. union all
我们简单分析上面的 SQL 语句,就是将每个年龄段的最大和最小的生日获取出来放到同一张表中,union all 前后的两个语句都是对同一张表按照 s_age 进行分组,然后分别取最大值和最小值。
上面的 SQL 对同一张表的相同字段进行两次分组,这显然造成了极大浪费,我们能不能改造下呢,当然是可以的,为大家介绍一个语法: from ... insert into ...
,这个语法将 from 前置,作用就是使用一张表,可以进行多次插入操作:
上面的 SQL 就可以对 stu_ori 表的 s_age 字段分组一次而进行两次不同的插入操作。
这个例子告诉我们一定要多了解 SQL 语句,如果我们不知道这种语法,一定不会想到这种方式的。
2. distinct
先看一个 SQL,去重计数:
这是简单统计年龄的枚举值个数,为什么不用 distinct?
有人说因为在数据量特别大的情况下使用第一种方式(group by)能够有效避免 Reduce 端的数据倾斜,但事实如此吗?
我们先不管数据量特别大这个问题,就当前的业务和环境下使用 distinct 一定会比上面那种子查询的方式效率高。原因有以下几点:
上面进行去重的字段是年龄字段,要知道年龄的枚举值是非常有限的,就算计算 1 岁到 100 岁之间的年龄,s_age 的最大枚举值才 100,如果转化成 MapReduce 来解释的话,在 Map 阶段,每个 Map 会对 s_age 去重。由于 s_age 枚举值有限,因而每个 Map 得到的 s_age 也有限,最终得到 reduce 的数据量也就是 map 数量*s_age 枚举值的个数。这个数量是很小的。
distinct 的命令会在内存中构建一个 hashtable,查找去重的时间复杂度是 O(1);group by 在不同版本间变动比较大,有的版本会用构建 hashtable 的形式去重,有的版本会通过排序的方式, 排序最优时间复杂度无法到 O(1)。另外,第一种方式(group by)去重会转化为两个任务,会消耗更多的磁盘网络 I/O 资源。
最新的 Hive 3.0 中新增了 count(distinct) 优化,通过配置
hive.optimize.countdistinct
,即使真的出现数据倾斜也可以自动优化,自动改变 SQL 执行的逻辑。第二种方式(distinct)比第一种方式(group by)代码简洁,表达的意思简单明了,如果没有特殊的问题,代码简洁就是优!
这个例子告诉我们,有时候我们不要过度优化,调优讲究适时调优,过早进行调优有可能做的是无用功甚至产生负效应,在调优上投入的工作成本和回报不成正比。调优需要遵循一定的原则。
2. 数据格式优化
Hive 提供了多种数据存储组织格式,不同格式对程序的运行效率也会有极大的影响。
Hive 提供的格式有 TEXT、SequenceFile、RCFile、ORC 和 Parquet 等。
SequenceFile 是一个二进制 key/value 对结构的平面文件,在早期的 Hadoop 平台上被广泛用于 MapReduce 输出/输出格式,以及作为数据存储格式。
Parquet 是一种列式数据存储格式,可以兼容多种计算引擎,如 MapRedcue 和 Spark 等,对多层嵌套的数据结构提供了良好的性能支持,是目前 Hive 生产环境中数据存储的主流选择之一。
ORC 优化是对 RCFile 的一种优化,它提供了一种高效的方式来存储 Hive 数据,同时也能够提高 Hive 的读取、写入和处理数据的性能,能够兼容多种计算引擎。事实上,在实际的生产环境中,ORC 已经成为了 Hive 在数据存储上的主流选择之一。
我们执行同样的 SQL 语句及同样的数据,只是数据存储格式不同,得到如下执行时长:
注:CPU 时间:表示运行程序所占用服务器 CPU 资源的时间。用户等待耗时:记录的是用户从提交作业到返回结果期间用户等待的所有时间。
查询 TextFile 类型的数据表耗时 33 分钟, 查询 ORC 类型的表耗时 1 分 52 秒,时间得以极大缩短,可见不同的数据存储格式也能给 HiveSQL 性能带来极大的影响。
3. 小文件过多优化
小文件如果过多,对 hive 来说,在进行查询时,每个小文件都会当成一个块,启动一个 Map 任务来完成,而一个 Map 任务启动和初始化的时间远远大于逻辑处理的时间,就会造成很大的资源浪费。而且,同时可执行的 Map 数量是受限的。
所以我们有必要对小文件过多进行优化,关于小文件过多的解决的办法,我之前专门写了一篇文章讲解,具体可查看:解决hive小文件过多问题。
4. 并行执行优化
Hive 会将一个查询转化成一个或者多个阶段。这样的阶段可以是 MapReduce 阶段、抽样阶段、合并阶段、limit 阶段。或者 Hive 执行过程中可能需要的其他阶段。默认情况下,Hive 一次只会执行一个阶段。不过,某个特定的 job 可能包含众多的阶段,而这些阶段可能并非完全互相依赖的,也就是说有些阶段是可以并行执行的,这样可能使得整个 job 的执行时间缩短。如果有更多的阶段可以并行执行,那么 job 可能就越快完成。
通过设置参数 hive.exec.parallel 值为 true,就可以开启并发执行。在共享集群中,需要注意下,如果 job 中并行阶段增多,那么集群利用率就会增加。
当然得是在系统资源比较空闲的时候才有优势,否则没资源,并行也起不来。
5. JVM 优化
JVM 重用是 Hadoop 调优参数的内容,其对 Hive 的性能具有非常大的影响,特别是对于很难避免小文件的场景或 task 特别多的场景,这类场景大多数执行时间都很短。
Hadoop 的默认配置通常是使用派生 JVM 来执行 map 和 Reduce 任务的。这时 JVM 的启动过程可能会造成相当大的开销,尤其是执行的 job 包含有成百上千 task 任务的情况。JVM 重用可以使得 JVM 实例在同一个 job 中重新使用 N 次。N 的值可以在 Hadoop 的mapred-site.xml
文件中进行配置。通常在 10-20 之间,具体多少需要根据具体业务场景测试得出。
我们也可以在 hive 中设置
这个功能的缺点是,开启 JVM 重用将一直占用使用到的 task 插槽,以便进行重用,直到任务完成后才能释放。如果某个“不平衡的”job 中有某几个 reduce task 执行的时间要比其他 Reduce task 消耗的时间多的多的话,那么保留的插槽就会一直空闲着却无法被其他的 job 使用,直到所有的 task 都结束了才会释放。
6. 推测执行优化
在分布式集群环境下,因为程序 bug(包括 Hadoop 本身的 bug),负载不均衡或者资源分布不均等原因,会造成同一个作业的多个任务之间运行速度不一致,有些任务的运行速度可能明显慢于其他任务(比如一个作业的某个任务进度只有 50%,而其他所有任务已经运行完毕),则这些任务会拖慢作业的整体执行进度。为了避免这种情况发生,Hadoop 采用了推测执行(Speculative Execution)机制,它根据一定的法则推测出“拖后腿”的任务,并为这样的任务启动一个备份任务,让该任务与原始任务同时处理同一份数据,并最终选用最先成功运行完成任务的计算结果作为最终结果。
设置开启推测执行参数:Hadoop 的mapred-site.xml
文件中进行配置:
hive 本身也提供了配置项来控制 reduce-side 的推测执行:
关于调优这些推测执行变量,还很难给一个具体的建议。如果用户因为输入数据量很大而需要执行长时间的 map 或者 reduce task 的话,那么启动推测执行造成的浪费是非常巨大的。
版权声明: 本文为 InfoQ 作者【五分钟学大数据】的原创文章。
原文链接:【http://xie.infoq.cn/article/ff74750f94aedfcbae8bf6292】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论