写点什么

tiup 与 prometheus 迁移实践

作者:神州数码
  • 2024-07-11
    北京
  • 本文字数:932 字

    阅读完需:约 3 分钟

背景


由于规划变动,需要将 tiup 和 prometheus 移动到其他的机器上,要求平滑迁移,不丢失监控数据。

关于 prometheus 的数据迁移《迁移 prometheus 数据 》这篇专栏文章写的比较详细,但是存在一个问题:“promethues 保存了一些数据在内存里面,导致即使导入老的监控”。


经过考虑决定使用一种比较稳妥的方案:先扩容 prometheus,待并行运行一段时间后再缩容掉原 prometheus,这样新的 prometheus 就会有一份完整的数据,解决了监控数据直接迁移丢失的风险。


本文分两部分:tiup 迁移和 prometheus 迁移。本文环境为离线部署集群。


tiup 迁移


1.将当前 tiup 的镜像源拷贝到迁移的机器上,并安装 tiup


tiup mirror show # 查看当前镜像源
sh tidb-community-server-${version}-linux-amd64/local_install.sh && source /home/tidb/.bash_profile#迁移节点执行
复制代码


2.将 tidb 家目录下的.tiup 包拷贝到迁移节点对应目录


这样就完成了 tiup 的迁移,通过查看集群配置验证 tiup 数据迁移成功


tiup cluster list
tiup cluster show-config ${clustera-name}
复制代码


3.卸载原 tiup


tiup uninstall --all
tiup uninstall --self
复制代码



删除镜像包


prometheus 迁移


1.查看 Prometheus 监控数据保留时间


storage_retention #默认 "30d"
tiup cluster show-config ${clustera-name} | grep storage_retention
复制代码


2.编写到迁移节点的 prometheus 的扩容文件


vi scale-out-prometheus.toml
复制代码


3.扩容 prometheus


tiup cluster scale-out ${clustera-name} scale-out-prometheus.toml -uroot -p
复制代码


4.等待时间达到 storage_retention 的保存日期后,再将原 prometheus 缩容


(1)使用 root 用户登录 dashboard ---> 点击 root ---> Prometheus 数据源 ---> 使用自定义地址(新的 prometheus)--->查看监控数据是否完整



(2)admin 用户登录 grafana ---> Confguration ---> Data Sources ---> 查看数据源 prometheus 地址是否是当前的,如果不是则将其地址更改为新的 prometheus,查看监控数据是否完整



(3)缩容原 prometheus


tiup cluster scale-in ${clustera-name} -N ${原prometheus-ip:port}
复制代码


总结


关于 tiup 和 prometheus 的迁移方法比较简单,本文介绍了一种比较稳妥的方案,优点是保证了数据不丢失,缺点是时间周期较长,需要根据需求等待 prometheus 的数据保留时长后才可以将原 prometheus 缩容。

用户头像

神州数码

关注

还未添加个人签名 2024-05-27 加入

还未添加个人简介

评论

发布
暂无评论
tiup与prometheus迁移实践_神州数码_InfoQ写作社区