大数据从业者必知必会的 Hive SQL 调优技巧
作者:京东科技 李然辉
大数据从业者必知必会的 Hive SQL 调优技巧
摘要:在大数据领域中,Hive SQL 被广泛应用于数据仓库的数据查询和分析。然而,由于数据量庞大和复杂的查询需求,Hive SQL 查询的性能往往不尽人意。本文针对 Hive SQL 的性能优化进行深入研究,提出了一系列可行的调优方案,并给出了相应的优化案例和优化前后的 SQL 代码。通过合理的优化策略和技巧,能够显著提升 Hive SQL 的执行效率和响应速度。
关键词: Hive SQL;性能优化;调优方案;优化案例
1. 引言
随着大数据时代的到来,数据分析和挖掘变得越来越重要。Hive 作为 Hadoop 生态系统中的数据仓库工具,扮演着重要的角色。然而,由于数据量庞大和查询复杂性,Hive SQL 查询的执行效率往往较低。因此,深入了解 Hive SQL 调优技巧对于数据工程师和数据分析师来说至关重要。
2. 先做个自我反思
很多时候, Hive SQL 运行得慢是由开发人员对于使用的数据了解不够以及一些不良的使用习惯引起的。
•真的需要扫描这么多分区吗?
**比如,对于销售明细事务表来说,扫描一年的分区和扫描一周的分区所带来的计算、 IO 开销完全是两个量级,所耗费的时间肯定也是不同的。作为开发人员,我们需要仔细考虑业务的需求,尽量不要浪费计算和存储资源。
•习惯使用 select *这样的方式,而不是用到哪些列就指定哪些列吗?
比如,select coll, col2 from your_table ,另外, where 条件中也尽量添加过滤条件,以去掉无关的数据行,从而减少整个 MapReduce 任务中需要处理、分发的数据量。
•需要计算的指标真的需要从数据仓库的公共明细层来自行汇总吗?
是不是数仓团队开发的公共汇总层已经可以满足你的需求?对于通用的、管理者驾驶舱相关的指标等通常设计良好的数据仓库公共层肯定已经包含了,直接使用即可。
3 查询优化
3.1 尽量原子化操作
尽量避免一个 SQL 包含复杂逻辑,可以使用中间表来完成复杂的逻辑。建议对作业进行合理拆分,降低作业出问题重跑时资源的浪费和下游时效的影响。
3.2 使用合适的数据类型
选择合适的数据类型可以减小存储空间和提高查询效率。例如,将字符串类型转换为整型类型可以节省存储空间并加快查询速度。
优化案例
优化前:
优化后:
3.3 避免全表扫描
尽量避免全表扫描,可以通过 WHERE 子句筛选出需要的数据行,或者使用 LIMIT 子句限制返回结果的数量。
反面案例
天天全表扫描计算所有历史数据。 map 数超 20 万。
优化案例 1
优化前:
--优化前副表的过滤条件写在 where 后面,会导致先全表关联再过滤分区。
优化后:
优化案例 2
利用 max 函数取表最大分区,造成全表扫描。
优化前:
优化后:
3.4 使用分区
数据分区是一种将数据按照某个字段进行分组存储的技术,可以有效减少查询时的数据扫描量。通过分区字段进行数据过滤,可以只对目标分区进行查询,加快查询速度。
优化案例
优化前:
优化后:
反面案例
代码写死日期,一次性不合理扫描 2 年+日志数据。map 数超 20 万,而且会越来越大,直到跑不出来。
3.5 使用索引
在 Hive SQL 中,可以通过创建索引来加速查询操作。通过在关键字段上创建索引,可以减少数据扫描和过滤的时间,提高查询性能。
优化案例
优化前:
优化后:
3.6 查询重写
查询重写是一种通过改变查询语句的结构或使用优化的查询方式,来改善查询的性能的技巧。可以通过重写子查询、使用 JOIN 代替 IN/EXISTS 子查询等方法来优化查询。
优化案例
优化前:
优化后:
3.7 谓词下推
谓词下推是一种将过滤条件尽早应用于查询计划中的技术(即 SQL 语句中的 WHERE 谓词逻辑都尽可能提前执行),减少下游处理的数据量。通过将过滤条件下推至数据源,可以减少查询数据量,提升查询性能。
优化案例
优化前:
优化后:
3.8 不要用 COUNT DISTINCT
COUNT DISTINCT 操作需要用一个 Reduce Task 来完成,这一个 Reduce 需要处理的数据量太大,就会导致整个 Job 很难完成,一般 COUNT DISTINCT 使用先 GROUP BY 再 COUNT 的方式替换,虽然会多用一个 Job 来完成,但在数据量大的情况下,这个绝对是值得的。
优化案例
优化前:
优化后:
3.9 使用 with as
拖慢 hive 查询效率出了 join 产生的 shuffle 以外,还有一个就是子查询,在 SQL 语句里面尽量减少子查询。with as 是将语句中用到的子查询事先提取出来(类似临时表),使整个查询当中的所有模块都可以调用该查询结果。使用 with as 可以避免 Hive 对不同部分的相同子查询进行重复计算。
优化案例
优化前:
优化后:
3.10 大表 Join 小表
在编写具有 Join 操作的查询语句时,有一项重要的原则需要遵循:应当将记录较少的表或子查询放置在 Join 操作符的左侧。这样做有助于减少数据量,提高查询效率,并有效降低内存溢出错误的发生概率。
如果未指定 MapJoin,或者不符合 MapJoin 的条件,Hive 解析器将会将 Join 操作转换成 Common Join。这意味着 Join 操作将在 Reduce 阶段完成,由此可能导致数据倾斜的问题。为了避免这种情况,可以通过使用 MapJoin 将小表完全加载到内存中,并在 Map 端执行 Join 操作,从而避免将 Join 操作留给 Reducer 阶段处理。这种策略有效地减少了数据倾斜的风险。
优化案例
--设置自动选择 Mapjoin
--大表小表的阈值设置(默认 25M 以下认为是小表):
3.11 大表 Join 大表
3.11.1 空 key 过滤
有时候,连接操作超时可能是因为某些 key 对应的数据量过大。相同 key 的数据被发送到相同的 reducer 上,由此导致内存不足。在这种情况下,我们需要仔细分析这些异常的 key。通常,这些 key 对应的数据可能是异常的,因此我们需要在 SQL 语句中进行适当的过滤。
3.11.2 空 key 转换
当某个 key 为空时,尽管对应的数据很丰富,但并非异常情况。在执行 join 操作时,这些数据必须包含在结果集中。为实现这一目的,可以考虑将表 a 中那些 key 为空的字段赋予随机值,以确保数据能够均匀、随机地分布到不同的 reducer 上。
3.12 避免笛卡尔积
在执行 join 操作时,若不添加有效的 on 条件或者使用无效的 on 条件,而是采用 where 条件,可能会面临关联列包含大量空值或者重复值的情况。这可能导致 Hive 只能使用一个 reducer 来完成操作,从而引发笛卡尔积和数据膨胀问题。因此,在进行 join 时,务必注意确保使用有效的关联条件,以免由于数据的空值或重复值而影响操作性能。
优化案例
优化前:
--在优化前的 SQL 代码中,使用了隐式的内连接(JOIN),没有明确指定连接条件,导致产生了笛卡尔积
优化后;
在优化后的 SQL 代码中,使用了明确的交叉连接(CROSS JOIN),确保只返回 A 和 B 表中的所有组合,而不会产生重复的行。 通过明确指定连接方式,可以避免不必要的笛卡尔积操作,提高查询效率。
4. 数据加载和转换
4.1 使用压缩格式
在数据加载过程中,选择合适的数据存储格式(对于结构化数据,可以选择 Parquet 或 ORC 等列式存储格式;对于非结构化数据,可以选择 TextFile 或 SequenceFile 等格式),可以提高查询性能和减少存储空间。
优化案例
优化前:
优化后:
4.2 数据转换和过滤
在数据加载之前,对数据进行转换和过滤可以减小数据量,并加快查询速度。例如,可以使用 Hive 内置函数对数据进行清洗和转换,以满足特定的查询需求。
优化案例
优化前:
优化后:
4.3 多次 INSERT 单次扫描表
默认情况下,Hive 会执行多次表扫描。因此,如果要在某张 hive 表中执行多个操作,建议使用一次扫描并使用该扫描来执行多个操作。
比如将一张表的数据多次查询出来装载到另外一张表中。如下面的示例,表 my_table 是一个分区表,分区字段为 dt,如果需要在表中查询 2 个特定的分区日期数据,并将记录装载到 2 个不同的表中。
在以上查询中,Hive 将扫描表 2 次,为了避免这种情况,我们可以使用下面的方式:
这样可以确保只对 my_table 表执行一次扫描,从而可以大大减少执行的时间和资源。
5. 性能评估和优化
5.1 使用 EXPLAIN 命令
使用 EXPLAIN 命令可以分析查询计划并评估查询的性能。通过查看查询计划中的资源消耗情况,可以找出潜在的性能问题,并进行相应的优化。
优化案例
优化前:
优化后:
5.2 调整并行度和资源配置
根据集群的配置和资源情况,合理调整 Hive 查询的并行度和资源分配,可以提高查询的并发性和整体性能。通过设置参数 hive.exec.parallel 值为 true,就可以开启并发执行。不过,在共享集群中,需要注意下,如果 job 中并行阶段增多,那么集群利用率就会增加。建议在数据量大,sql 很长的时候使用,数据量小,sql 比较的小开启有可能还不如之前快。
优化案例
优化前:
优化后:
6. 数据倾斜
任务进度长时间维持在 99%(或 100%),检查任务监控页面后发现仅有少量(1 个或几个)reduce 子任务未完成。这些未完成的 reduce 子任务由于处理的数据量与其他 reduce 子任务存在显著差异。具体而言,单一 reduce 子任务的记录数与平均记录数之间存在显著差异,通常可达到 3 倍甚至更多。此外,未完成的 reduce 子任务的最长时长明显超过了平均时长。主要原因可以归结为以下几种:
6.1 空值引发的数据倾斜
在数据仓库中存在大量空值(NULL)的情况下,导致数据分布不均匀的现象。这种数据倾斜可能会对数据分析和计算产生负面影响。当数据仓库中某个字段存在大量空值时,这些空值会在数据计算和聚合操作中引起不平衡的情况。例如,在使用聚合函数(如 SUM、COUNT、AVG 等)对该字段进行计算时,空值并不会被包括在内,导致计算结果与实际情况不符。数据倾斜会导致部分 reduce 子任务负载过重,而其他 reduce 子任务负载较轻,从而影响任务的整体性能。这可能导致任务进度长时间维持在 99%(或 100%),但仍有少量 reduce 子任务未完成的情况。
优化方案
第一种:可以直接不让 null 值参与 join 操作,即不让 null 值有 shuffle 阶段。
第二种:因为 null 值参与 shuffle 时的 hash 结果是一样的,那么我们可以给 null 值随机赋值,这样它们的 hash 结果就不一样,就会进到不同的 reduce 中。
6.2 不同数据类型引发的数据倾斜
在数据仓库中,不同数据类型的字段可能具有不同的取值范围和分布情况。例如,某个字段可能是枚举类型,只有几个固定的取值;而另一个字段可能是连续型数值,取值范围较大。当进行数据计算和聚合操作时,如果不同数据类型的字段在数据分布上存在明显的差异,就会导致数据倾斜。数据倾斜会导致部分 reduce 子任务负载过重,而其他 reduce 子任务负载较轻,从而影响任务的整体性能。这可能导致任务进度长时间维持在 99%(或 100%),但仍有少量 reduce 子任务未完成的情况。
优化方案
如果 key 字段既有 string 类型也有 int 类型,默认的 hash 就都会按 int 类型来分配,那我们直接把 int 类型都转为 string 就好了,这样 key 字段都为 string,hash 时就按照 string 类型分配了。
6.3 不可拆分大文件引发的数据倾斜
在 Hadoop 分布式计算框架中,数据通常会被切分成多个数据块进行并行处理。然而,当遇到一些无法被切分的大文件时,这些大文件会被作为一个整体分配给一个 reduce 任务进行处理,而其他 reduce 任务则可能得到较小的数据量。这导致部分 reduce 任务负载过重,而其他任务负载较轻,从而影响任务的整体性能。
优化方案
这种数据倾斜问题没有什么好的解决方案,只能将使用 GZIP 压缩等不支持文件分割的文件转为 bzip 和 zip 等支持文件分割的压缩方式。
所以,我们在对文件进行压缩时,为避免因不可拆分大文件而引发数据读取的倾斜,在数据压缩的时候可以采用 bzip2 和 Zip 等支持文件分割的压缩算法。
6.4 数据膨胀引发的数据倾斜
数据膨胀通常是由于某些数据在仓库中存在大量冗余、重复或者拆分产生的。当这些数据被用于计算和聚合操作时,会导致部分 reduce 子任务负载过重,而其他 reduce 子任务负载较轻,从而影响任务的整体性能。
优化方案
在 Hive 中可以通过参数 hive.new.job.grouping.set.cardinality 配置的方式自动控制作业的拆解,该参数默认值是 30。表示针对 grouping sets/rollups/cubes 这类多维聚合的操作,如果最后拆解的键组合大于该值,会启用新的任务去处理大于该值之外的组合。如果在处理数据时,某个分组聚合的列有较大的倾斜,可以适当调小该值。
6.5 表连接时引发的数据倾斜
在数据仓库中,表连接是常用的操作,用于将不同表中的数据进行关联和合并。然而,当连接键在不同表中的数据分布不均匀时,就会导致连接结果中某些连接键对应的数据量远大于其他连接键的数据量。这会导致部分 reduce 任务负载过重,而其他任务负载较轻,从而影响任务的整体性能。
优化方案
通常做法是将倾斜的数据存到分布式缓存中,分发到各个 Map 任务所在节点。在 Map 阶段完成 join 操作,即 MapJoin,这避免了 Shuffle,从而避免了数据倾斜。
6.6 确实无法减少数据量引发的数据倾斜
在某些情况下,数据的数量本身就非常庞大,例如某些业务场景中的大数据集,或者历史数据的积累等。在这种情况下,即使采取了数据预处理、数据分区等措施,也无法减少数据的数量。
优化方案
这类问题最直接的方式就是调整 reduce 所执行的内存大小。
调整 reduce 的内存大小使用 mapreduce.reduce.memory.mb 这个配置。
7. 合并小文件
在 HDFS 中,每个小文件对象约占 150 字节的元数据空间,如果有大量的小文件存在,将会占用大量的内存资源。这将严重限制 NameNode 节点的内存容量,进而影响整个集群的扩展能力。从 Hive 的角度来看,小文件会导致产生大量的 Map 任务,每个 Map 任务都需要启动一个独立的 JVM 来执行。这些任务的初始化、启动和执行会消耗大量的计算资源,严重影响性能,因为每个小文件都需要进行一次磁盘 IO 操作。
因此,我强烈建议避免使用包含大量小文件的数据源。 相反,我们应该进行小文件合并操作,以减少查询过程中的磁盘 IO 次数,从而提高查询效率。通过合并小文件,我们可以将多个小文件合并成一个较大的文件,从而减少对磁盘的 IO 访问次数。这样可以降低系统资源的消耗,提高查询性能。
因此,在构建数据仓库时,应该尽可能使用较大的文件来存储数据,避免大量小文件的产生。如果已经存在大量小文件,可以考虑进行小文件合并操作,以优化数据存储和查询性能。这样可以提高 Hive 查询的效率,减少资源的浪费,并保证系统的稳定性和可扩展性。
7.1 Hive 引擎合并小文件参数
--是否和并 Map 输出文件,默认 true
--是否合并 Reduce 输出文件,默认 false
--合并文件的大小,默认 256000000 字节
--当输出文件的平均大小小于该值时,启动一个独立的 map-reduce 任务进行文件 merge,默认 16000000 字节
7.2 Spark 引擎合并小文件参数,所以尽量将 MR 切换成 Spark
--是否合并小文件,默认 true
8. 结论
本论文介绍了大数据从业者必备的 Hive SQL 调优技巧,包括查询优化、数据分区和索引、数据加载和转换等方面。通过深入理解 Hive SQL 语言和优化策略,开发人员可以提升查询效率和性能。通过优化案例和优化前后的 SQL 代码,展示了每种优化方案的实际应用效果。****
附:实践案例
一、背景
某公司的线上平台每天产生大量的用户数据,包括用户行为、订单信息等。为了更好地分析用户行为和业务趋势,我们需要对数据进行复杂的查询操作。原始的 Hive SQL 语句在执行时存在性能瓶颈,因此我们决定对其进行优化。
二、原始 SQL 语句
原始的 Hive SQL 语句如下:
这个查询语句的目的是从 user_data 表中选取所有在 order_data 表中最近一个月有订单的用户数据。由于 user_data 表和 order_data 表的数据量都很大,这个查询语句执行时间较长,存在性能瓶颈。
三、优化策略
针对原始 SQL 语句的性能瓶颈,我们采取了以下优化策略:
使用 Spark 计算引擎:Spark 是一种高效的分布式计算框架,可以与 Hive SQL 集成使用来提高查询效率。我们将使用 Spark 计算引擎来执行查询。
使用 JOIN 操作:将两个表通过 JOIN 操作连接起来,可以减少数据的传输和计算开销。我们将使用 JOIN 操作来连接 user_data 表和 order_data 表。
使用过滤条件:在查询过程中,使用过滤条件可以减少数据的处理量。我们将使用过滤条件来筛选出符合条件的用户数据。
四、优化后的 SQL 语句
基于上述优化策略,我们优化后的 Hive SQL 语句如下:
这个查询语句使用了 JOIN 操作将 user_data 表和子查询结果连接起来,并通过过滤条件筛选出符合条件的用户数据。同时,我们使用了 Spark 计算引擎来执行查询。
五、性能对比
我们对优化前后的 SQL 语句进行了性能对比。以下是性能对比的结果:
执行时间:优化后的 SQL 语句执行时间比原始 SQL 语句减少了约 50%。
数据传输量:优化后的 SQL 语句减少了数据的传输量,提高了数据处理的效率。
内存消耗:优化后的 SQL 语句使用了 Spark 计算引擎,可以更好地利用内存资源,提高了查询性能。
通过对比可以看出,优化后的 SQL 语句在执行时间、数据传输量和内存消耗等方面都取得了显著的提升。
版权声明: 本文为 InfoQ 作者【京东科技开发者】的原创文章。
原文链接:【http://xie.infoq.cn/article/3135c43cd2a13e34f469fd282】。文章转载请联系作者。
评论