写点什么

更改 HIVE 表字段数据类型有哪些注意事项?

  • 2022-12-02
    湖北
  • 本文字数:2227 字

    阅读完需:约 7 分钟

更改 HIVE 表字段数据类型有哪些注意事项?

1. 使用 HIVE 表的常见规范

在大数据离线分析场景中,在数据建模/表格式这一层,目前使用最多的还是 APACHE HIVE 这一数据仓库框架(湖仓一体的框架,如 Iceberg/DeltaLake/Hudi 也在加速落地)。


在 HIVE 表的实际使用过程中,大家普遍遵循了下述相关规范:


  • 分层建模:根据业务处理逻辑,进行分层建模,其中各层的表对应不同的库,或在同一个库中通过表名前缀进行区分(各层对应的库名一般使用 ods,dwd,dws,ads 等,辅助以 dim 和 tmp 层);

  • 命名规范:数据库名、表名、字段名应遵循规范,比如全部小写,只使用英文名和下划线_,禁止使用数据库关键字和保留字等;各层次表的名字和表中字段的名字,应上下呼应保持一致;

  • 列示存储:为确保数据质量,推荐使用列示存储比如 ORC/PARQUET 而不是行式存储如 txtfile/csv/tsv 等,同时各层的表格式应该统一(txtfile 格式在创建表时声明的列分隔符和行分隔符,可能会跟记录中某些字段本身存储的内容冲突,在读取时会造成部分字段不准确甚至部分记录丢失的数据问题);

  • 是否分区:根据业务特征,数据量和常规查询方式, 决定 HIVE 表是否分区并选用合适的分区字段(比如按天分区 pt_date);

  • 是否分桶:根据业务特征,数据量和常规查询方式, 决定 HIVE 表是否分桶,通过分桶个数管控表或表分区底层的文件个数;

  • 内表外表:如无特殊原因,推荐全部使用内表,以充分利用 HIVE 本身对数据的管理(如 DROP/Truncate 等);

  • ACID 事务表:如果业务上有记录级别的增删改的需求,可以考虑使用 ACID 事务表;

  • DDL 中的 location: 推荐在创建 database 时指定 database 级别的默认 location,如无特殊原因,禁止在创建 table 时指定 location;

  • 字段类型:根据业务特征,合理设计字段数据类型,为确保数据计算的准确性,对于带小数的数值型,一般建议使用 Decimal(),禁止使用 FLOAT/DOUBLE,同时精度范围和上游表保持一致;

  • 表结构变更:禁止删除字段或重命名字段,禁止对字段数据类型做类型不兼容的更改,出于业务需要,可以在表的末尾增加字段;

2. 更改 HIVE 表字段数据类型的注意事项

在遵循上述 HIVE 表使用规范的基础上,我们一般不会更改 HIVE 表字段的数据类型。


但有时候 HIVE 表的最初设计可能没有充分考虑到业务的潜在变化,此时在日后使用过程中,有时不得不更改 HIVE 表某些字段的数据类型,此时需要注意,不同大数据平台的不同版本,在判定字段数据类型的更改是否属于兼容性更改上略有不同,我们需要注意以下事项:


  • 对于更改 orc 表字段类型,为避免数据一致性问题,在规范上一般都是禁止做这种字段类型不兼容的更改的,比如从 String 改为 Decimal;

  • 在 CDH 上,可以配置参数 hive.metastore.disallow.incompatible.col.type.changes 为 True, 从而禁止对字段做类型不兼容的修改,比如从 String 改为 MAP<STRING, STRING>;

  • 在 CDH 上,即使配置参数 hive.metastore.disallow.incompatible.col.type.changes 为 True, 仍可以将字段从 String 更改为 Decimal, 因为 CDH 认为这种不算类型不兼容(Primitive types like INT, STRING, BIGINT, etc. are compatible with each other and are not blocked.);

  • 在 TDH 上,不可以将字段从 String 更改为 Decimal, 因为 TDH 对字段类型管控更严格,不管参数 hive.metastore.disallow.incompatible.col.type.changes 配置为 True 还是 False,都不允许对字段做类型不兼容的修改,而且 TDH 认为从 String 到 Decimal 算类型不兼容;

  • 对比多个版本的 TDH,发现部分老版本如 TDH6.0.2,可以将字段类型在低精度和高精度之间相互转换(比如从 Decimal(20,0)更改为 Decimal(10,0) 或者反过来),但新版本如 TDH 6.2.2,只允许从低精度改为高精度而不允许从高精度改为低精度(比如将字段类型从 Decimal(20,0)更改为 Decimal(10,0)),否则更改时会报错;

  • 经咨询 TDH 官方客服,TDH 对字段类型管控更严格,官方不推荐更改 ORC 表字段类型,有些早期版本更改字段类型的 DDL 语句可能可以执行成功,但后续新版本会直接报错拒绝;

  • 不管是 CDH 还是 TDH,如果在不得已的情况下需要对字段做类型不兼容的修改,可以新建一套新格式的表,然后将旧表数据查询并插入到新表,最后删除旧表并重命名新表;

  • 测试 SQL 与报错信息如下:


##APACHE HIVE中关键参数:- hive.metastore.disallow.incompatible.col.type.changes##测试SQL:- create table tableA (cash_amount Decimal(15,2))stored as orc; - alter table tableA change column cash_amount cash_amount decimal(10,2);- alter table tableA change column cash_amount cash_amount decimal(20,2);- alter table tableA change column cash_amount cash_amount map<string,string>;- alter table tableA replace columns cash_amount cash_amount map<string,string>;##常见报错信息- Error: EXECUTION FAILED: Task DDL error HiveException: [Error 11488] Changing from type string to decimal(10,0) is not supported for column open_date. SerDe may be incompatible (state=08S01,code=11488)- Error: EXECUTION FAILED: Task DDL error HiveException: [Error 11488] Changing from type decimal(20,0) to decimal(10,0) is not supported for column XXX. May cause loss of data precision. SerDe may be incompatible (state=08S01,code=11488);
复制代码

3. 相关 JIRA

  • https://issues.apache.org/jira/browse/HIVE-4409

  • https://issues.apache.org/jira/browse/HIVE-12320



发布于: 刚刚阅读数: 7
用户头像

Keep Striving! 2018-04-25 加入

明哥,十四年 IT经验,六年大数据经验; 做过大数据集群的搭建运维,大数据应用系统的开发优化,也做过大数据平台的技术选型以及架构咨询; 目前聚焦于泛大数据生态,包括数据仓库/数据湖,云计算和人工智能。

评论

发布
暂无评论
更改 HIVE 表字段数据类型有哪些注意事项?_hadoop_明哥的IT随笔_InfoQ写作社区