TIDB 升级发生故障时,快速强行回退方案
作者: BraveChen 原文来源:https://tidb.net/blog/8d94086c
背景
PingCAP 原厂并没有提供回退集群版本的明确方式,正常在 TIDB 集群进行升级操作前,会停机将集群里面的数据进行一次全备,防止集群在升级过程中出现未知的错误,并且无法解决。灾难发生时,会重新建一套升级前版本的集群,然后将升级前全备的数据重新导入来实现集群的回退效果。
在集群数据量特别大的情况下,全备数据和重新导入数据的时间会特别长,导致停机时间窗口可能会无法满足停机时间预算,在咨询原厂工程师集群升级的原理后,经过测试,特整理了集群小版本升级和大版本升级强行回退的方案。
小版本升级回退
说明
本次升级将 v5.1.4 版本的集群离线升级到 v5.1.5 集群,离线升级参考:使用 TiUP 升级 TiDB | PingCAP 文档中心,并模拟故障,导致升级过程中升级失败,然后再成功回退至 v.5.1.4 版本集群
升级前准备
备份.tiup 文件夹
cp -r .tiup .tiup-bak
升级故障模拟
在升级后,重启集群前,去其中一个节点下把 tikv 目录删掉 。
重启集群失败,达到超时时间 2min 后报错。
回退集群
依次回退各节点组件
(1)对照 display 结果,
去每个节点上面去回退已安装的组件,需要做出的操作示例:
(2)确认是否有如下两个文件夹
(3)按照 display 的结果,逐行进行操作,循环重复步骤(1)和(2)
回退 tiup 和 tiup-cluster
回退镜像源
重启集群
检查回退是否成功
display 结果:
连上数据库去查询 tidb 版本
已回退成功!
大版本升级回退
说明
主要通过将 v5.1.4 版本的集群正常升级到 v6.1.0 之后,再按小版本回退的经验去做大版本回退,观察是否能正常回退到 v5.1.4 版本。
主要验证大版本更新回退是否会有操作范围不一致操作的地方(监控),以及验证大版本回退后集群依旧正常可用
监控不会升级,也不回退
# 在小版本回退的步骤中,v5.1.4 和 v5.1.5 版本所用的监控节点的 node_exporter 和 blackbox_exporter 版本并没有更新,所以并没有进行回退。
# 经过验证在 v5.1.4 升级到 v6.1.0 的过程后,详细检查发现监控节点依旧没有进行更新,还是 v0.17 版本,直接部署 v6.1.0 集群会是 V1.3 版本的 node_exporter, 这里暂且也不用回退
回退时重启集群失败
查看具体报错的日志
这里对照日志信息去社区查找了一些帖子观察了一下,没有发现特别明显清晰的解决方案。
怀疑是在两个 v6.1.0 和 v5.1.4 两个版本中底层数据组织结构产生了一些变化,或者是数据结构的管理方式不太兼容,导致无法通过这种暴力方式去做升级回退。
总结
1、生产环境在进行集群升级操作前可以提前在测试环境上测试两个版本是否可以快速强行回退,以具体测试结果为准。
2、升级前还是要做一次全库备份,防止故障发生以及快速回退失败。
3、该方案仅供参考,出问题了别找我。
版权声明: 本文为 InfoQ 作者【TiDB 社区干货传送门】的原创文章。
原文链接:【http://xie.infoq.cn/article/77be3bacb9a1ae69b8ef6d331】。文章转载请联系作者。
评论