如何更改 datax 以支持 hive 的 DECIMAL 数据类型?
如何更改 datax 以支持 hive 的 DECIMAL 数据类型?
1. JAVA 数据类型 - float/double 与 BigDecimal
大家知道,JAVA 中可以用来存储小数的数字类型,主要包括:
基本数据类型 float/double;
基本数据类型的对应包装类 java.lang.Float/java.lang.Double;
java.math 包下的类 java.math.BigDecimal
一般来讲,在不需要完全精确的计算结果的场景下,可以直接使用 float 或 double 数据类型,其运算效率更高;而在需要精确计算结果的场景下,则必须使用 BigDecimal 类,比如金融场景下涉及金额的计算,就必须是完全精确的计算:
Decimal data types store exact representations of numeric values, while DOUBLE data types store very close approximations of numeric values.
Decimal types are needed for use cases in which the (very close) approximation of a DOUBLE is insufficient, such as financial applications, equality and inequality checks, and rounding operations.
Decimal types are also needed for use cases that deal with numbers outside the DOUBLE range.
在使用 BigDecimal 时,以下细节需要注意:
BigDecimal 有多个构造方法,其中参数类型为 double 的构造方法的精度不能保证,其结果有一定的不可预知性,所以不推荐使用参数类型为 double 的构造方法(数值 0.1 无法准确地表示为 double 数据类型);
BigDecimal 有多个构造方法,如果希望 BigDecimal 能够精确地表示期望的数值,那么一定要使用参数类型为 String 的构造方法,如 BigDecimal a = new BigDecimal(“0.1”) ;
如果不是很在乎是否完全精确地表示,并使用了 BigDecimal(double),那么要注意 double 本身的特例,double 的规范本身定义了几个特殊的 double 值 (Infinite,-Infinite,NaN),不要把这些值传给 BigDecimal,否则会抛出异常;
当必须将 double 用作 BigDecimal 的数据来源时,建议先使用 Double.toString(double) 将 double 数值转换为 String,然后使用 参数类型为 String 的构造方法;
2. hive 数据类型 - Double,DECIMAL,Numeric
hive 支持以下数字类数据类型,其中 FLOAT 和 DOUBLE 数据类型很早就支持了,而 Decimal 和 NUMERIC 数据类型是后续退出的:
关于 hive 的 Decimal 数据类型,有以下细节需要注意:
Decimal 数据类型是在 Hive 0.11.0 (HIVE-2693) 引入的,其后在 Hive 0.13.0 (HIVE-3976) 及进行了修改重构;
在 Hive 0.13 之前版本,decimal 数据类型的数据精度是固定的 38 位;
在 Hive 0.13 及之后版本,声明使用 DECIMAL 数据类型有三种格式:DECIMAL/DECIMAL(precision)/DECIMAL(precision, scale),用户可以使用第三种格式 DECIMAL(precision, scale) 指定 decimal 的数据精度和数据刻度(小数位数);
在 Hive 0.13 及之后版本,若没有指定 DECIMAL 的精度 precision,则默认精度是 10(精度的最大值是 38),若没有指定小数位数 scale,则默认小数位数是 0;
Hive 的 Decimal 数据类型底层基于 Java 的 BigDecimal,支持科学计数法和非科学计数法:
The DECIMAL type in Hive is based on Java's BigDecimal which is used for representing immutable arbitrary precision decimal numbers in Java.
All regular number operations (e.g. +, -, *, /) and relevant UDFs (e.g. Floor, Ceil, Round, and many more) handle decimal types.
You can cast to/from decimal types like you would do with other numeric types.
The persistence format of the decimal type supports both scientific and non-scientific notation. Therefore, regardless of whether your dataset contains data like 4.004E+3 (scientific notation) or 4004 (non-scientific notation) or a combination of both, DECIMAL can be used for it.
Double 数据类型提供了数据的近似表示与近似计算,而 Decimal 数据类型提供了数据的精确表示与精确计算,且支持的数据范围更大:
Decimal literals provide precise values and greater range for floating point numbers than the DOUBLE type.
Decimal data types store exact representations of numeric values, while DOUBLE data types store very close approximations of numeric values;
Decimal types are needed for use cases in which the (very close) approximation of a DOUBLE is insufficient, such as financial applications, equality and inequality checks, and rounding operations.
They are also needed for use cases that deal with numbers outside the DOUBLE range.
SQL 语句显示转换 decimal 数据类型示例如下:
3.如何更改 datax 以支持 hive 的 DECIMAL 数据类型?
如上文所述,在需要对数据进行精确表示和精确运算的场景下(比如金融行业对数据准确性普遍要求较高),我们需要使用 HIVE 的 Decimal 数据类型而不是 Double 数据类型;
但是一些数据同步工具并不直接支持 hive 的 decimal 数据类型,此时需要基于开源版本在内部做二次开发和增强,以支持支持 hive 的 decimal 数据类型;
比如开源的 datax 即不支持 hive 的 decimal 数据类型:
那么怎么修改开源的 datax 源码,以增强支持 hive 的 decimal 数据类型呢?
由于 datax 的插件化的机制,相关修改只涉及到 hdfsreader 和 hdfswriter 插件模块;
由于 datax 在读写 hive orc 表时,底层使用的是 hive/orc/hadoop 原生的各种 api,而这些 hive/orc/hadoop 原生的 api 已经支持了对 hive Decimal 数据类型的读写操作,所以 datax 的 hdfs reader 和 hdfs writer 插件模块所需的代码修改并不多;
3.1 hdfs reader 相关修改
为支持读取 hive orc 文件中的 decimal 字段,需要修改 hdfs reader 插件模块中的相关类和方法,这些类和方法主要是 com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil#transportOneRecord
在不是很严谨的状况下,甚至可以不修改 hdfs reader 的任何代码,直接读取 hive orc 表数据并进行数据同步:此时可以在配置同步作业时将 hive 的 Decimal 字段指定为 Double 字段,此时 hdfsreader 在底层调用 hive 的相关 api 读取底层 orc 文件中的相关字段时,会将 DECIMAL 字段值隐式转换为用户指定的 DOUBLE 类型,这种转换在对数据精确性要求不高且数据范围不大时一般也没有什么大问题(当然考虑到数据精确性和数据范围,仍建议修改相关方法和类)
3.1 hdfs writer 相关修改
为支持写入数据到 hive orc 文件中的 decimal 字段,需要修改 hdfs writer 插件模块中的相关类和方法,这些类和方法主要是:
注意:
datax 有自己的数据类型,比如 long/Double/String/Date/Boolean/Bytes 等:
datax 的 Double 类型,其对应的类不是 java.lang.Double,而是 com.alibaba.datax.common.element.DoubleColumn,该类内部有 rawData 字段用来存储数据的原始内容,可以存储的数据范围包括 java.math.BigDecimal,也包括 java.lang.Doulbe;
datax 的 Double 类型,在内部会使用方法 com.alibaba.datax.common.element.DoubleColumn#asBigDecimal, 基于 rawData 将字段转换为 java.math.bigDecimal 等,所以并不会损失 java.math.BigDecimal 的数据精度;
为支持 hive orc 中的 Decimal 数据类型,可以在 datax 代码中,通过 hive 的 apiorg.apache.hadoop.hive.serde2.typeinfo.HiveDecimalUtils#enforcePrecisionScale() 和 org.apache.hadoop.hive.common.type.HiveDecimal#enforcePrecisionScale, 将数据转换为期望的精度和标度 DECIMAL(precision, scale).
版权声明: 本文为 InfoQ 作者【明哥的IT随笔】的原创文章。
原文链接:【http://xie.infoq.cn/article/68cd514aebc26ef92f9e64f32】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论