麒麟 v10 上部署 TiDBv5.1.2 生产环境的最佳实践
作者: caiyfc 原文来源:https://tidb.net/blog/9a7abab8
前言
笔者最近在一个银行项目中做 PoC 测试,由于客户选择了使用 TiDB 数据库,于是笔者在 TiDB 中选择了一个相对稳定并且 bug 较少的版本:TiDB v5.1.2。
虽然 bug 较少,但是在测试过程中,还是不可避免的发现了一些问题,并通过参数来调整解决。
经过 PoC 测试和方案的制定,就迎来了生产环境的部署。生产环境的部署就不像是部署测试环境那么简单了。测试环境还能“从简”出发,减少一些非必要的配置项的设置,比如 CPU 频率的 cpufreq 模块是否选用 performance 模式;存储介质的 I/O 调度器是否设置为 noop。但是在生产环境中,我们必须把所有优化项都设置好,哪怕只是优化一点点也不能放过。
本文会把项目中的部署架构以及生产环境中需要注意的事项都整理出来,给大家一些参考。
一、同城两中心部署
在项目中,客户对容灾要求较高,希望不管是哪个数据中心出现问题,TiDB 数据库都可以无需人工干预并且无缝切换到另一个中心,直接提供服务。根据官网,目前有两种方案:
同城两中心自适应同步模式部署:在官网中的 同城两中心自适应同步模式部署 文档中是实现不了的,因为从数据中心虽然有完整数据,但是需要人工介入才能让 TiDB 恢复并提供服务。
两地三中心部署:两地三中心部署 虽然可以满足客户的需求,不管哪个数据中心出现问题,TiDB 集群都可以正常对外提供服务,但是这就必须有三个数据中心才能够满足条件。现实的情况是,客户只有两个数据中心,所以这个方案也不行。
最后,根据目前的情况,商量出来了一个方案:在两个数据中心部署两套 TiDB 集群,用 TiCDC 组件同步两个集群的数据。由于是两个不同的集群,万一主数据中心出现问题,也不会影响到从数据中心。利用 F5 负载均衡实现主数据中心故障后,自动切换到从数据中心,达到无需人工干预就可以无缝切换到从数据中心的需求。
二、环境检查
生产环境检查和测试环境检查就有很大的区别了,主要体现在检查项目变多和检查更加细节,本文只列举,除官方文档之外需要检查的部分:
1、物理机配置查看
主要是查看物理机配置是否与客户给的一致,包括 CPU (观察核数以及是否开启超线程),网卡(是否万兆网卡),硬盘(数据盘是否为 NVME SSD 磁盘)等等。并且需要确认 NVME 磁盘使用率不能超过 5%。这些配置一般都没啥问题,但是该检查还是得检查一下,万一出现配置不对的情况,这个锅我们不背!
2、网络环境检查
网络环境一定要检查!网络环境一定要检查!网络环境一定要检查!
重要的事情一定要多说几遍。生产环境中的网络一般很复杂,所以一定要检查集群中网络是否符合要求。如果网络不到万兆,或者网络波动很大,都会对 TiDB 集群产生不好的影响。
推荐服务器双网卡做 bond1(master-salve) 或多网卡 team0(activebackup),保障网卡高可用
主机间网络延迟:同机房内网络 < 0.5ms,同城 <1.5ms,异地 <20ms
主机间网络吞吐流量:若网络间吞吐远低于万兆网 (1GB/S),沟通用户、协同排查
主机间防火墙策略:TiUP 及各个节点需要开放的端口需要一一排查是否开放
3、磁盘环境检查
磁盘除了要使用 NVME 和检查挂载方式以外,还需要检查磁盘 IO 是否达到 TiDB 集群的最低要求:
测试方法:
1、随机读测试
随机读测试 read iops 不低于 40000
2、随机读与顺序写混合测试
随机读与顺序写混合测试 read iops 不低于 10000
随机读与顺序写混合测试 write iops 不低于 10000
随机读与顺序写混合测试 read latency (ns) 不高于 250000
随机读与顺序写混合测试 write latency (ns) 不高于 30000
4、关于配置互信
关于互信,这里的操作与官方文档稍有不同。为了避免人为配置互信出现问题,笔者在这一步只创建了 tidb 用户,并且按照官方文档赋予了最高权限,并没有手动去配置互信。笔者在最后的部署阶段,是默认用 tiup 自动去配置各个主机间的互信的,这一步不需要人为干预。
三、NUMA 绑核
这次是把 TiDB 集群部署在国产海光 CPU 上,所以一定需要用 numa 绑核才能发挥出完全的性能。为什么一定要绑定 numa 才能发挥出应有的性能呢?这个可以看看秦老师的一篇文章:
专栏 - 单机 8 个 NUMA node 如何玩转 TiDB - AMD EPYC 服务器上的 TiDB 集群最优部署拓扑探索
关于 numa 绑核,笔者这次也是踩了坑。说说这是个什么坑吧,一句话概括就是,两个 NVME 硬盘都挂载到同一个物理 CPU 上了,而且想要挂载到不同的物理 CPU 上,条件还不允许。最优的情况是,两个 NVME 硬盘平均挂载到两个不同的物理 CPU 上,这样 CPU 去调用磁盘会更快。
为什么笔者的情况无法解决呢?因为物理机上有一个东西:背板。磁盘是先插到背板上的,由背板走线直接连接到不同的物理 CPU 上。但是背板是有不同型号的,笔者遇到的物理机背板只有两块,一块是只能插 sata 接口的,另一块是只能插 NVME 接口的,这种情况下,两块 NVME 只能插在同一个背板上,而背板只能连接到某一个物理 CPU 上,所以无法分开。所以,在前期规划部署的时候,这一点需要注意。
关于两块 NVME 连接到一个物理 CPU 的性能损耗,得到厂商回复:
连接到两块 CPU 和连接到一块 CPU,访问延迟最多多了 240 纳秒,这 240 纳秒主要是 CPU 到 CPU 之间的访问延迟。
还有一个小坑要注意一下,麒麟 v10 是默认开启 numa 自动均衡的,所以一定要手动关闭:
sysctl -w kernel.numa_balancing=0
四、配置相关
目前来看,TiDB v5.1.2 的版本也算是有点老了,所以不可避免的还是有点小 bug 的,但是这些 bug 都可以根据参数的设置而避免。那么这个配置参数就非常重要了。根据 PoC 测试和从社区整理的拓扑配置最佳实践如下:
系统参数最佳实践如下:
笔者只写出了基本需要调整的参数,参数数值可以根据项目情况来更改。也可以增加一些笔者没写出来的参数并进行调整。
配置文件参数详情:TiDB 配置文件描述 ,TiKV 配置文件描述,PD 配置文件描述,TiFlash 配置参数
系统变量参数详情:系统变量
总结
规划好一个最适合的架构,现有的方案都不满足需求的话,那就到社区找找有没有同样需求的小伙伴,一起讨论讨论。
生产环境部署 TiDB 集群最重要的就是仔细。硬件和环境检查一定要全面,万一以后 TiDB 集群性能出现问题,也不至于说再去说是硬件或者是环境的锅。
numa 绑核要提前想好如何绑定,以及该如何规划磁盘的挂载。
配置文件尽量避免现有版本 bug,根据项目情况设置好最优参数。
版权声明: 本文为 InfoQ 作者【TiDB 社区干货传送门】的原创文章。
原文链接:【http://xie.infoq.cn/article/8d087f1ba4d1937d01ffb019d】。文章转载请联系作者。
评论