tiup 与 prometheus 迁移实践
背景
由于规划变动,需要将 tiup 和 prometheus 移动到其他的机器上,要求平滑迁移,不丢失监控数据。
关于 prometheus 的数据迁移《迁移 prometheus 数据 》这篇专栏文章写的比较详细,但是存在一个问题:“promethues 保存了一些数据在内存里面,导致即使导入老的监控”。
经过考虑决定使用一种比较稳妥的方案:先扩容 prometheus,待并行运行一段时间后再缩容掉原 prometheus,这样新的 prometheus 就会有一份完整的数据,解决了监控数据直接迁移丢失的风险。
本文分两部分:tiup 迁移和 prometheus 迁移。本文环境为离线部署集群。
tiup 迁移
1.将当前 tiup 的镜像源拷贝到迁移的机器上,并安装 tiup
2.将 tidb 家目录下的.tiup 包拷贝到迁移节点对应目录
这样就完成了 tiup 的迁移,通过查看集群配置验证 tiup 数据迁移成功
3.卸载原 tiup

删除镜像包
prometheus 迁移
1.查看 Prometheus 监控数据保留时间
2.编写到迁移节点的 prometheus 的扩容文件
3.扩容 prometheus
4.等待时间达到 storage_retention 的保存日期后,再将原 prometheus 缩容
(1)使用 root 用户登录 dashboard ---> 点击 root ---> Prometheus 数据源 ---> 使用自定义地址(新的 prometheus)--->查看监控数据是否完整

(2)admin 用户登录 grafana ---> Confguration ---> Data Sources ---> 查看数据源 prometheus 地址是否是当前的,如果不是则将其地址更改为新的 prometheus,查看监控数据是否完整

(3)缩容原 prometheus
总结
关于 tiup 和 prometheus 的迁移方法比较简单,本文介绍了一种比较稳妥的方案,优点是保证了数据不丢失,缺点是时间周期较长,需要根据需求等待 prometheus 的数据保留时长后才可以将原 prometheus 缩容。
评论