海量数据!秒级分析!Flink+Doris 构建实时数仓方案
一、背景
随着业务的快速发展,为满足十亿级数据量的实时报表统计与决策分析,我们选择了 Flink + Doris 的实时数仓方案。
二、Doris 基本原理
Doris 基本架构非常简单,只有 FE(Frontend)、BE(Backend)两种角色,不依赖任何外部组件,对部署和运维非常友好。架构图如下
FE(Frontend)以 Java 语言为主。
主要功能职责:
1) 接收用户连接请求(MySql 协议层)
2) 元数据存储与管理
3) 查询语句的解析与执行计划下发
4) 集群管控
FE 主要有有两种角色,一个是 follower,还有一个 observer,leader 是经过选举推选出的特殊 follower。follower 主要是用来达到元数据的高可用,保证单节点宕机的情况下,元数据能够实时地在线恢复,而不影响整个服务。
BE(Backend) 以 C++ 语言为主。
主要功能职责:
1) 数据存储与管理
2) 查询计划的执行
三、技术框架
整体数据链路如下图
1. 通过 FlinkCDC 采集 Mysql Binlog 到 Kafka 中的 Topic1
2. 开发 Flink 任务消费上述 Binlog 生成相关主题的宽表,写入 Topic2
3. 配置 Doris Routine Load 任务,将 Topic2 的数据导入 Doris
四、实践
关于步骤 1 和步骤 2 的实践,在前文 “基于 Flink-CDC 数据同步⽅案” 的文章中已有说明,本文将对步骤 3 展开详细的说明。
4.1 建表
因业务数据经常伴随有 UPDATE,DELETE 等操作,为了保持实时数仓的数据粒度与业务库一致,所以选择 Doris Unique 模型(数据模型在下文有重点介绍)具体建表语句如下
可以看到,表结构中有两个字段分别是 data_deal_datetime,data_status。
data_deal_datetime 主要是相同 key 情况下数据覆盖的判断依据
data_status 用来兼容业务库对数据的删除操作
4.2 数据导入任务
Doris 提供了主动拉取 Kafka 数据的功能,配置如下
导入语句中,
ORDER BY data_deal_datetime 表示根据 data_deal_datetime 字段去覆盖 key 相同的数据
desired_concurrent_number 表示期望的并发度。
max_batch_interval/max_batch_rows/max_batch_size 这三个参数分别表示
1)每个子任务最大执行时间。
2)每个子任务最多读取的行数。
3)每个子任务最多读取的字节数。
4.3 任务监控与报警
Doris routine load 如果遇到脏数据会导致任务暂停,所以需要定时监控数据导入任务的状态并且自动恢复失败任务。并且将错误信息发至指定的 lark 群。具体脚本如下
现在线上配置的监控 1 分钟执行一次,如果遇到任务暂停,会自动恢复导入任务,但是导致任务失败的脏数据会跳过,此时需要人工排查失败原因,修复后重新触发该条数据的导入。
4.4 数据模型
Doris 内部表中,主要有 3 种数据模型,分别是 Aggregate ,Unique ,Duplicate
在介绍数据模型之前,先解释一下 Column,在 Doris 中,Column 可以分为两大类:Key 和 Value。从业务角度看,Key 和 Value 分别对应维度列和指标列。
4.4.1Aggregate 模型
简单来说,Aggregate 模型就是预聚合模型,类似于 Molap,通过提前定义 key 列及 value 列的聚合方式,在数据导入的时候已经将 key 列相同的数据按照 value 列的聚合方式聚合在一起,即最终表里 key 相同的数据只保留一条,value 按照相应的规则计算。下面举例说明。
表结构如下:
表结构中,key 列分别是 user_id, channel, city_code ,value 列是 last_visit_date,total_cost,他们的聚合方式分别为 REPLACE,SUM。
现在,向该表中插入一批数据
按照我们的理解,现在 tmp_table_1 中虽然我们插入了 3 条数据,但是这三条数据的 key 都是一致的,那么最终表中应该只有一条数据,并且 last_visit_date 的值应为"2022-03-01 00:00:01",total_cost 的值应为 240。下面我们验证一下
可以看到,结果与我们预期⼀致。
4.4.2Unique 模型
正如本次建设的实时数仓那样,我们更加关注的是如何保证主键的唯⼀性,即如何获得 Primary Key 唯⼀性约束。⼤家可以参考上⾯4.1 建表的例⼦,在这⾥不再举例说明。
4.4.3Duplicate 模型
在某些多维分析场景下,数据既没有主键,也没有聚合需求。因此引⼊ Duplicate 数据模型来满⾜这类需求。举例说明。
表结构如下
插入数据
因为此时数据是 Duplicate 模型,因此不会进行任何处理,查询应该能查到 3 条数据
4.4.4 数据模型的选择建议
因为数据模型在建表时就已经确定,且无法修改。所以,选择一个合适的数据模型非常重要。
Aggregate 模型可以通过预聚合,极大地降低聚合查询时所需扫描的数据量和查询的计算量,非常适合有固定模式的报表类查询场景。但是该模型对 count(*) 查询很不友好。同时因为固定了 Value 列上的聚合方式,在进行其他类型的聚合查询时,需要考虑语意正确性。
Unique 模型针对需要唯一主键约束的场景,可以保证主键唯一性约束。但是无法利用 ROLLUP 等预聚合带来的查询优势。
Duplicate 适合任意维度的 Ad-hoc 查询。虽然同样无法利用预聚合的特性,但是不受聚合模型的约束,可以发挥列存模型的优势。
五、总结
Flink + Doris 构建的实时数仓上线后,报表接口相应速度得到了明显提高,单表 10 亿级聚合查询响应速度 TP95 为 0.79 秒,TP99 为 5.03 秒。
到目前为止,整套数仓体系已平稳运行 8 个多月。
六、参考资料
关于领创集团(Advance Intelligence Group)
领创集团成立于 2016 年,致力于通过科技创新的本地化应用,改造和重塑金融和零售行业,以多元化的业务布局打造一个服务于消费者、企业和商户的生态圈。集团旗下包含企业业务和消费者业务两大板块,企业业务包含 ADVANCE.AI 和 Ginee,分别为银行、金融、金融科技、零售和电商行业客户提供基于 AI 技术的数字身份验证、风险管理产品和全渠道电商服务解决方案;消费者业务 Atome Financial 包括亚洲领先的先享后付平台 Atome 和数字金融服务。2021 年 9 月,领创集团宣布完成超 4 亿美元 D 轮融资,融资完成后领创集团估值已超 20 亿美元,成为新加坡最大的独立科技创业公司之一。
往期回顾 BREAK AWAY
▼ 如果觉得这篇内容对你有所帮助,有所启发,欢迎点赞收藏:
1、点赞、关注领创集团,获取最新技术分享和公司动态。
2、关注我们的公众号 & 知乎号「领创集团 Advance Group」或访问官方网站,了解更多企业动态。
版权声明: 本文为 InfoQ 作者【领创集团Advance Intelligence Group】的原创文章。
原文链接:【http://xie.infoq.cn/article/e54184be87ac3e6ca3f33c15c】。文章转载请联系作者。
评论