Node_export 端口变更
作者: szy2010214517 原文来源:https://tidb.net/blog/5e1d2029
一、背景与环境描述
在客户现场是多套 tidb 集群混合部署在相同的机器上,数据库版本是 tidb3 通过 ansible 部署,多套 tidb、tikv 部署在相同机器。集群配置如下
如上所示,三套业务系统 A、B、C,都是部署在 61、62、63 的相同节点,这样每个集群收集监控信息通过 inventory.ini 文件中的 node_exporter_port 进行区分。
因需要通过 tiup 升级到 tidb4 版本,对原数据库的问题进行修复与升级,发现将 inventory.ini 导入到 tiup 后,通过 tiup cluster edit-config clustername 编辑 node_exporter_port 失败。这样三套业务系统升级后会出现 node_exporter 端口冲突情况。
二、操作步骤,修改 tidb 4 集群的 node_export 端口
2.1 升级前环境模拟
修改 inventory.ini 文件如下,进行部署 tidb3 的集群
部署完成后检查 node_export 端口
2.2 升级 tidb
使用 tiup 导入 inventory
[tidb\@db01 ~]$ tiup cluster import -d /home/tidb/tidb-ansible –no-backup
导入后检查
直接做升级 tiup cluster upgrade,升级完数据库后关闭集群,修改配置文件。
2.3 修改 meta.yml 文件
升级完成后,进入备份目录 /.tiup/storage/cluster/clusters/{cluster_name}/,编辑 meta.yaml 文件,修改 node_exporter 端口地址
Meta.yaml 文件编辑后,通过 edit-config 可以看到文件已修改
2.4 修改 systemctl 启动脚本
修改 node_exporter 端口
meta.yaml 集群文件修改完成后,然后到 /etc/systemd/system 目录下复制 node_export-xxx.service,文件名字指定正确的端口号,并修改文件内容。
修改 ${deploy_dir}/script/run_node_exporter.sh 和 stop_node_exporter.sh 文件内容为正确的端口号。
修改 blackbox_exporter 端口
meta.yaml 集群文件修改完成后,然后到 /etc/systemd/system 目录下复制 blackbox_exporter-xxx.service,文件名字指定正确的端口号,并修改文件内容。
修改 ${deploy_dir}/script/run_blackbox_exporter.sh 和 stop_blackbox_exporter.sh 文件内容为正确的端口号。
2.5 重新加载 unit 配置文件
[root\@db01 system]# systemctl daemon-reload
2.6 启停 tidb 集群验证
[tidb\@db01 system]$ tiup cluster start cluster-name
[tidb\@db01 system]$ tiup cluster stop cluster-name
2.7 监控信息验证
监控正常,端口修改成功
版权声明: 本文为 InfoQ 作者【TiDB 社区干货传送门】的原创文章。
原文链接:【http://xie.infoq.cn/article/a4ccb4a589f900e799f0b0fb4】。文章转载请联系作者。
评论