干货 | 分布式数据库 TiDB 在携程的实践
作者简介
Army,携程数据库专家,主要负责分布式数据库运维及研究。
Keira,资深数据库工程师,主要负责 MySQL 和 TiDB 运维。
Rongjun,携程大数据架构开发,专注离线和实时大数据产品和技术。
前言
携程自 2014 年左右开始全面使用 MySQL 数据库,随着业务增长、数据量激增,单机实例逐渐出现瓶颈,如单表行数过大导致历史数据查询耗时升高,单库容量过大导致磁盘空间不足等。为应对这些问题,我们采取了诸多措施如分库分表的水平拆分、一主多从读写分离、硬件 SSD 升级、增加前端 Redis 缓存等,但同时也使得整个业务层架构更加复杂,且无法做到透明的弹性,因此开始将目光转移到分布式数据库以解决这些痛点。
近年来受到 Spanner&F1 的启发,基于 CAP 理论和 Paxos、Raft 协议作为工程实现的分布式数据库得到了蓬勃发展,从硅谷的 CockroachDB 到国产的 TiDB 都在社区产生了很强的影响力。携程也对这些产品从社区活跃度、用户规模、易用性等多个方面做了调研,最终选择了国产的 TiDB。
TiDB 是一个开源的 NewSQL 数据库,支持混合事务和分析处理(HTAP)工作负载,兼容大部分 MySQL 语法,并且提供水平可扩展性、强一致性和高可用性。主要由 PingCAP 公司开发和支持,并在 Apache 2.0 下授权。2018 年 11 月我们开始 TiDB 的 POC 以及与携程现有运维平台的整合,2019 年 1 月第一个线上应用正式接入,最初的目标只是保证数据库的可用性以及可以存储足够多的关系型数据。随着 TiDB 快速迭代,越来越多的功能进入社区,如 HATP 特性,让我们不局限于最初的目标,开始了新的探索。本文将介绍 TiDB 在携程业务场景中的运维实践,希望对读者有所帮助和参考。
一、架构
携程内部历时 1 年,代号为“流浪地球”的机房级故障演练,验证了 IDC 级别故障容灾能力。我们将 TiDB 的三个副本分布在三个数据中心,保证在单中心故障时不影响对外服务,同时数据一致性也不受影响,并在 tidb-server 层实现了自动探活以及自动故障切换,让 RPO 等于 0,RTO 小于 30S。
我们先来了解一下 TiDB 的整体架构(如图 1-1),再结合携程的场景来部署。
图 1-1 TiDB 的整体架构图
从 TiDB 的架构图我们可以看到,得益于组件 PD 和 TiKV 都通过 Raft 实现了数据的容灾,原生就提供了多 IDC 的部署能力,和 Google Spanner 采用原子钟方案不同的是,TiDB 采用了 PD 进行单点全局统一授时的 Timestamp 方案。TiDB 中的每个事务都需要向 PD leader 获取 TSO,当 TiDB 与 PD leader 不在同一个数据中心时,它上面运行的事务也会因此受网络延迟影响。目前携程的跨 IDC 延迟在 0.5-2ms 之间 ,属于可接受的延迟范围。配置三数据中心时,需要对相应的 TiKV 和 PD 的 label 配置规则,这样 PD 在调度 region 副本时会根据标签属性在每一个机房都拥有一份全量数据。具体的一个配置示例,如图 1-2:
图 1-2 TiDB 在携程的部署架构和配置
这种部署架构的优点:
所有数据的副本分布在三个数据中心,具备 IDC 级别的高可用和容灾能力
任何一个数据中心失效后,不会产生任何数据丢失 (RPO = 0)
任何一个数据中心失效后,其他两个数据中心会自动发起 leader election,并在合理长的时间内(通常情况 20s 以内)自动恢复服务
二、应用场景
TiDB 目前已经应用到携程的多个业务场景,包括风控、社区、营销、搜索、酒店等。这里选取两个比较典型的使用案例——国际业务 CDP 平台和酒店结算业务。
2.1 国际业务 CDP 平台
因为 Trip 数据来源比较广泛,既有自身数据也有外部数据;数据形式也非常多样化,既有结构化数据,也有半结构化和非结构化数据;数据加工形式既有离线数据处理,也有在线数据处理,因此国际业务构建了 CDP 平台以解决加工这些数据,形成业务系统、运营、市场需要并且可以理解的数据和标签,具体可以阅读往期文章:《携程国际业务动态实时标签处理平台实践》。
TiDB 在其中主要承担存储业务持久化的标签以及内部 SOA 调用的查询服务。查询分为 UID 等维度的基础信息查询、订单订阅基础信息查询的 OLTP,以及 EDM\Marketing 等人群的 OLAP 查询。整个 CDP 平台的架构如图 2-1:
图 2-1 CDP 平台架构图
具体的数据处理,历史全量数据通过数据批处理引擎(如 Spark)转换完成以后批量写入到数据持久化存储引擎(TiDB),增量数据业务应用以消息的形式发送到 Kafka 或者 QMQ 消息队列,通过实时 DAG 处理完后持久化到存储引擎(TiDB)。
持久标签访问的主要场景有两个,一种是跟现有 CRM 系统对接,在线根据业务的特征圈选符合条件的业务数据,这种场景的查询条件不固定,返回结果集因筛选条件而定,对于数据存储引擎的数据计算和处理能力要求比较高,即我们在数据处理领域经常提到的 OLAP 的场景。另一种场景是线上业务根据前端传入的业务标签相关的唯一标识来查询是否满足特定业务要求,或者返回指定特征值,满足业务处理的需要,需要毫秒级响应,对应的是 OLTP 场景。
由于标签的多样性,有查询记录的字段多达 60 个,查询条件是 60 个字段的随机组合,无法通过传统数据库层的 Index 来提高查询效率,经典的方案是 OLTP 和 OLAP 分离,但数据会存储多份,多数据源的数据一致性是一个很大的挑战。
对于这种场景,我们开启了 TiDB 的 TiFlash,TiFlash 是 TiDB HTAP 形态的关键组件,它是 TiKV 的列存扩展,在提供了良好的隔离性的同时,也兼顾了强一致性。列存副本通过 Raft Learner 协议异步复制,但是在读取的时候通过 Raft 校对索引配合 MVCC 的方式获得 Snapshot Isolation 的一致性隔离级别。TiFlash MPP 模式如图 2-2。
图 2-2 TiDB MPP 模式
这种架构很好地解决了 HTAP 场景的隔离性以及列存同步的问题,开启之后几个典型查询性能提升:
TiFlash MPP 提升,20s -> 1s
Set @@session.tidb_allow_mpp=1;
Set @@session.tidb_enforce_mpp=0;
TiFlash 列裁剪,16.9s -> 2.8s
Set @@session.tidb_allow_mpp=1;
Set @@session.tidb_enforce_mpp=0;
Set session tidb_isolation_read_engines =’tidb,tiFlash’;
2.2 酒店结算业务
携程酒店结算业务全库 6T,单服务器存储 6T 全量数据有很大挑战。常规的方法是用分库分表的方式来减少实例数据量及压力,但分库分表的维度很难确定,无论从酒店维度还是供应商维度都无法避免跨片的查询,给程序的开发带来了很大的困难,并且大部分查询都是聚合运算,因此我们尝试迁移到 TiDB。
目前最大的表存储了 28 亿条数据,读写已完全切换到 TiDB。具体所使用的部署模式和上节提到的国际业务 CDP 平台类似,同样是开启了 TiDB 的 TiFlash 来加速查询的性能,具体的性能如图 2-3:
图 2-3 酒店结算性能监控
三、一些问题的实践
3.1 参数不合理导致的性能问题
分布式数据库有别于传统单机,通常 MySQL 遇到性能问题时可以快速定位是由于网络抖动、SQL 缺失索引还是请求次数激增等原因导致的,但分布式的 TiDB 组件众多,各个组件之间的网络通信、某个组件资源不足、SQL 复杂等都可能是导致出现性能问题的原因。目前官方提供了问题导图,方便根据不同的场景尽快定位原因。这里给出一个具体的案例,总结了一个典型问题的排查思路。
国际业务集群使用官方默认配置的集群上线测试时,发现写入耗时高达秒级,且耗时波动较大。来自应用端的监控(纵坐标单位为毫秒), 如图 3-1:
图 3-1 IBA 写入响应监控
根据 Pingcap 的导图发现 scheduler command duration 的时间约等于事务的 prewrite 时间(纵坐标单位为秒),可以看出 scheduler-worker 不足。如图 3-2:
图 3-2 scheduler command duration 的时间
所以我们做了如下的调整:
scheduler-worker-pool-size:16 –> 40 (默认值为 4,最小值为 1,最大不能超过 TiKV 节点的 CPU 核数)
scheduler-pending-write-threshold: “100MB” –> 1024MB (写入数据队列的最大值,超过该值之后对于新的写入 TiKV 会返回 Server Is Busy 错误)
调整完成后来自应用端的监控(纵坐标单位为毫秒),如图 3-3,红色箭头处是参数调整的时间点:
图 3-3 IBA 写入响应监控
总结:默认配置并非最佳配置,需要根据服务器硬件、使用场景不断调试并最终固化为每个集群甚至所有集群的最佳实践配置;根据 PingCAP 提供的问题导图,逐步定位具体哪个组件哪个方面存在瓶颈,我们同时也在进一步开发一键定位工具,能更快速的定位性能瓶颈。
3.2 分布式带来的自增列问题
含自增列的表,在自增列不强制赋值的情况下,insert 语句报主键冲突:
报错 SQL:INSERT INTO `xxx_table ` (`id, `name`, `tag`, `comment`, `creator`) VALUES (?, ?, ?, ?, ?)
报错内容:com.mysql.jdbc.exceptions.jdbc4.MySQLIntegrityConstraintViolationException: Duplicate entry 175190 for key ‘PRIMARY’.
在 PingCAP 官方文档上,有以下介绍:
TiDB 中,自增列只保证自增且唯一,并不保证连续分配。TiDB 目前采用批量分配 ID 的方式,所以如果在多台 TiDB 上同时插入数据,分配的自增 ID 会不连续。TiDB 实现自增 ID 的原理是每个 tidb-server 实例缓存一段 ID 值用于分配(目前会缓存 30000 个 ID),用完这段值再去取下一段。假设集群中有两个 tidb-server 实例 A 和 B(A 缓存 [1,30000] 的自增 ID,B 缓存 [30001,60000] 的自增 ID),依次执行如下操作:客户端向 B 插入一条将 id 设置为 1 的语句 insert into t values (1, 1),并执行成功。客户端向 A 发送 Insert 语句 insert into t © (1),这条语句中没有指定 id 的值,所以会由 A 分配,当前 A 缓存了 [1, 30000] 这段 ID,所以会分配 1 为自增 ID 的值,并把本地计数器加 1。而此时数据库中已经存在 id 为 1 的数据,最终返回 Duplicated Error 错误。
通过这段介绍,我们了解到造成自增主键冲突,是因为存在自增主键显式插入导致。
结论:分布式数据库对于表自增列是预分配的,自增主键显式插入会导致 tidb-server 上的计数器混乱,引起数据写入报错。在开发规范中,我们明确要求 TiDB 不允许自增主键显式插入。
3.3 修改字段是否为空导致默认值异常
如下的表,我们字段从 int 升级到 bigint
CREATE TABLE `test` (`id` int);
alter table `test` add `col1` int(11) null default ‘0’;
alter table `test` add `col2` int(11) null default ‘0’;
alter table `test` change `col1` `col1` bigint(20) null default ‘0’;
alter table `test` change `col2` `col2` bigint(20) null default ‘0’;
我们发现默认值 0 不合适,因此,执行下面的语句,把默认值调整为 null
alter table `test` change `col1` `col1` bigint(20) null ;
alter table `test` change `col2` `col2` bigint(20) null’;
此时,我们插入一条数据:insert into test(id) values(1);
神奇的发现,col1 和 col2 的值依旧是 0. 这和我们的预期不符。经过一系列重现测试,以及社区论坛的查找,我们发现这是一个已知问题。https://github.com/pingcap/tidb/pull/20491. 该 Bug 在 TiDB 4.0.9 及以后版本已修复。
结论:成熟的社区论坛是 TiDB 日常运维和快速排障的利器,借助社区论坛上各种技术探索和交流分享,可以汲取优质内容,收获前沿知识,快速定位和解决问题。
四、监控与告警
对于分布式数据库运维,监控和告警是非常核心的一环,冒烟现象或者不规范现象,需要及时发现,及时解决,避免问题恶化。监控准确、告警及时可以帮助运维人员准确定位问题,快速解决故障。TiDB 使用开源时序数据库 Prometheus 作为监控和性能指标信息存储方案,使用 Grafana 作为可视化组件进行展示,我们在此基础上进一步做了整合。
4.1 TiDB 监控大盘
TiDB 原生提供 prometheus+Grafana 的性能大盘,数据非常丰富,但数据分散在单独的集群,无法提供全局视角,我们通过 prometheus 源生 remote write 到 9201 端口,自研了一个 adaptor 监听 9201 端口,转发性能数据到携程统一监控平台,搭建了我们自己的监控大盘。如图 4-1:
图 4-1 整合后的 TiDB 监控大盘
4.2 三副本监控
TiDB 使用三个以上的副本,通过 raft 协议来保证数据的一致性。当出现多数副本丢失或者宕机时,这部分数据处于不可用状态,是否存在副本缺失或者副本状态异常是需要特别注意的。因此我们会针对副本的数目及状态进行巡检,确保不会出现长时间内副本不足的情况,一旦发现有副本丢失,可以增加副本的调度线程,务必及时解决副本缺失问题。Region Peer 的监控如图 4-2:
图 4-2 三副本监控
4.3 磁盘容量监控
TiDB 存储数据量庞大,需要特别关注机器磁盘剩余可使用空间的情况,以免写满磁盘造成不必要的故障。对于磁盘的监控,我们的阈值是物理磁盘的 80%,一旦磁盘使用容量超过阈值,我们需要安排加机器扩容。对比相同情况下 MySQL 复杂的拆分方法,TiDB 的处理方法更简单高效。磁盘的监控告警如图 4-3:
图 4-3 TiDB 磁盘监控
4.4 配置标准化检查
TiDB 集群的配置文件参数、系统参数众多,不同实例的配置项各不相同,且经常会对集群扩容缩容,因此我们要求变更前后集群的配置必须严格按照标准配置进行调整。只要做到配置标准,很大程度上就会保证集群标准化运行。配置标准化的监控告警如图 4-4:
图 4-4 配置标准化的监控告警
4.5 性能告警
有时候会存在突发的流量上升,或者瞬间的性能尖峰的情况,这时候就需要关注性能告警。METRICS_SCHEMA 是基于 Prometheus 中 TiDB 监控指标的一组视图,有了基础的性能数据,我们只需要根据性能阈值,及时告警,及时分析处理。
五、周边工具
除了监控与告警,我们也开发了一系列周边工具,对于 TiDB 的运维,带来了更大的便利。这些周边工具主要包括:
5.1 和现有的数据周边工具打通
现有的数据周边工具主要包括:数据库的发布(DDL),数据在线查询,数据在线修改,以及和现有的大数据流程打通等,这些支持 MySQL 的工具也一样可以支持 TiDB,为 MySQL 迁移 TiDB 打解决了后顾之忧,让之前使用 MySQL 的开发测试人员可以方便流畅地切换到 TiDB。
5.2 TiDB 部署工具
TiDB 集群实例角色较多,集群部署有别于传统单机,需要单独开发一套部署工具,包括集群上线流程、集群下线流程、扩容缩容实例、集群版本升级等。
5.3 TiDB 闪回工具
有时候会遇到开发测试人员误操作数据的情况,可以使用数据闪回工具进行回退,我们借助 TiDB binlog 开发了闪回工具,对 binlog 的内容做反转,生成数据恢复 SQL,供 TiDB 数据恢复使用。
六、未来规划
6.1 故障的一键分析
分布式数据库与单机不同, TiDB 组件比较多,可供调整的参数有数百个,各个组件之间的网络通信、某个组件资源不足、SQL 复杂等都可能导致出现性能问题,后续计划将 TiDB 诊断做成自动化和智能化,目前已经通过改造 TiDB server 源码,完成了 TiDB 的全链路 SQL 收集和分析,这将作为未来故障一键分析的基础。
6.2 基于 HDD 硬盘测试
TiDB 所有的优化都是基于 SSD 来做的,高性能意味着高成本。我们还是会面临数据量比较大,但写入和查询都比较少,响应要求不高的场景。我们目前已经完成基于 HDD 硬盘的测试,选择的机器配置为 12 块 10T HDD 硬盘,单机部署 12 个 TiKV 实例,这种架构已经在小范围应用。
6.3 同城双中心自适应同步方案 DR Auto-Sync
DR Auto-Sync 正处在高速迭代的周期中,后续版本将会有一系列高可用和容灾能力的加强。从 5.3.0 开始将支持双中心对等部署,藉此获得快速恢复多副本的能力,我们也在保持关注中。
评论