tidb 之旅——生成列
作者: 有猫万事足原文来源:https://tidb.net/blog/15d0fbf6
新的问题
之前弄好了 TiDB 集群,也弄好了 dm 集群,把写入流量整个切入了 TiDB 集群运行起来了。但是有个别比较大的日志表,OLAP 查询的表现还是不太行。正好 7.1 版本发布了,我看到 tiflash 支持存算分离且可以把数据放在 s3 上——没错,这是我当时最关注的特性。
然而和老板沟通了一下,没有得到预算上的支持,上列存的计划泡汤。
在老板看来,已经在一个可以接受的成本下得到了超过预期的成果。某些 OLAP 查询时间是 1 分钟还是 10s,对他来说都是可以接受的。
然而这对我来说就是一个严重的问题。
metabase 对时间戳的处理
在 metabase 中,给 mysql 的查询的时间限制是 1 分钟,如果一个 mysql 查询 1 分钟没有结果。metabase 就会直接断掉查询,没有任何数据。
也就是说任何一个查询超过 1 分钟,都可能导致我回到之前的工作流程。需要我定时的把查询的结果放到另一个表里。这是我极力避免的。
我的目标还是不割裂查询结果和原始记录之间的联系。以便对数据有疑问的时候,可以通过去掉聚合维度,快速定位到最细粒度的原始记录。
没有办法,没有列存的支持,那就只能具体问题具体分析。来看看这类查询为啥会慢。
查下来的结果,发现基本都和时间戳有关。
mysql 中时间戳运用的是如此广泛,基本上只要用到时间的地方都是时间戳而不是 datetime。
当我在 metabase 中,把 timestamp 字段映射到 datetime 之后。
matebase 生成的查询的 sql 是类似下面这样的:
可以看到 metabase 对时间戳的处理, 都是直接用 FROM_UNIXTIME 把时间戳转成 datetime。这当然会导致原来在时间戳上建立的索引失效。这就是查询慢的根源。
对症下药,首先想到的是,需要一个表达式索引。
从表达式索引到存储生成列
本来我打算建立一个表达式索引,这个问题就算解决了。不料在文档的末尾看到这么一段。
表达式索引的语法和限制与 MySQL 相同,是通过将索引建立在隐藏的虚拟生成列 (generated virtual column) 上来实现的。因此所支持的表达式继承了虚拟生成列的所有限制。
我才第一次开始关注 7.1 的新特性——生成列。
https://docs.pingcap.com/zh/tidb/stable/generated-columns#%E7%94%9F%E6%88%90%E5%88%97
固然文档通篇说的都是 json,FROM_UNIXTIME 也不在推荐使用的表达式的范围内。
但是在反复思考下,我觉得用存储生成列来解决时间戳到 datetime 的转换会更好。我需要这个特性。至于实验特性有没有什么问题,那也得先用用看才知道。
datetime 用来展示还是作为维度聚合都是不可或缺的。如果有一列可以物化这个时间戳的转换结果,应该对整体的性能有很大的提升。无论是对业务人员还是 metabase,时间戳的使用都不够友好。有了一列是 datetime 并和时间戳转换的结果保持一致,那我就再也用不到时间戳了。
有风险的地方是和 dm 工具的配合:下游的表加了存储生成列,是否会让 dm 认为下游的表和上游的表结构是不一致的,从而无法进行同步任务。
思考下来概率不大,但文档没有确认这一点,还得试试。另就是存储生成列,不能直接 alter table 添加,改造表结构需要重新导入数据。
那就开始吧。
设置 allow-expression-index=true
首先我要用到的函数不在 tidb_allow_function_for_expression_index 变量的范围内。所以我需要设置 tidb 的变量 allow-expression-index = true
添加如下配置:
之后重启所有角色为 tidb 的节点:
建立新表
为了验证存储生成列是否会导致 dm 同步失败,这里不采用insert into t_new select * from t
的方式回填数据。
用 dm 重新导入数据
dm 篇的时候,我提到过,凡是这种大数据量的日志表都推荐一个 task 一个表。
所以需要重新导入也很简单,至少要停掉这个表的同步任务再提交一次任务就可以了。
注意,要从头做全量导入,用 tiup dmctl stop-task 删掉了任务,还需要把 dm_meta 库下,对应的 4 张表删掉。但是如果你用 dm openapi 里面的删除同步任务接口来做,就不需要这一步。
这也是之前写过的,dm openapi 的行为和 tiup dmctl 并不是完全一致的。使用过程中需要留意。
重新开始提交任务 start-task 没有报错就知道应该是稳了,只要 dm 不认为上下游两个表是异构的,提交任务的时候就通过了检查,那就之后的导入就不太可能会有问题。
结果对比
以同样对比某种游戏内资源各个服务器当日获取和消耗统计为例
metabase 使用时间戳字段
基本就是从日志表中获取这个行为的类型,再和类型的字典表做关联,确定这种行为是消耗还是获取资源,然后把数据分别累加。
因为这个 LogAll 是个视图,union all 了一堆日志表。执行计划完整的非常长,只列一部分:
就每一个被 union all 的日志表来说,索引失效了,所以只查一天,也需要全表扫描。
整体看我只统计一天,需要在 2.4 亿的数据量里面扫描一遍。
从某种程度上说,TiDB 能在 1.2 分钟的时间内,硬扫 2.4 亿数据,并返回结果也挺强大。
metabase 使用类型为 datetime 的生成列
改用了 datetime 的生成列,同样统计一天,已经进不了慢查询了。我给了它更高的挑战,统计上一个月到现在的数据。
和上一个查询相比,我们的时间范围来到了 2 个月。
在每个 union all 的日志表中,虽然不是全部,但大部分都用上索引。
统计一个多月,执行时间也就 13s+。
扫描的记录量也大幅降低。
结论
存储生成列完美做到了:物化某一列的表达式计算结果,同时不影响 dm 导入。
再回到 metabase,调整时间聚合的字段到添加的存储生成列上,原来这类查询执行速度从平均 40s+ 降到了平均 4-5s,提升巨大。
版权声明: 本文为 InfoQ 作者【TiDB 社区干货传送门】的原创文章。
原文链接:【http://xie.infoq.cn/article/cdcff5e0fbd9b720d35826f22】。文章转载请联系作者。
评论