作者: Fly-bird 原文来源:https://tidb.net/blog/3e68a790
前言:最近频繁出现的云服务环境的不稳定,对业务造成了一定的困扰,为了预防公有云和私有云带来的不稳定,我们选择了线下同城双机房 + 线上云服务的架构大家 tidb 集群,本次架构改造分为两步进行:
第一步:搭建同城双机房;
第二步:扩容公有云节点
通过两步走的方式实现混合云的部署,本文通过介绍在同城双机房公网环境下搭建 TIDB 集群,总结经验,查漏补缺,为第二步的扩容做知识储备。
由于专线费用较为昂贵,本文使用公网 ip 进行网络传输,此线路为公网,费用较低,为了安全,会设置 3 个公网 ip 之间的端口只允许 ip 之间互相访问。
一、集群架构
本集群使用位于无锡的两个机房,其中 tidb01 和 tidb02 位于江阴机房
tidb01,机房位于无锡市江阴市,使用的公网 IP 如下
tidb02 机房位于无锡市江阴市,使用的公网 IP 如下
tidb03,机房位于无锡市惠山区,位于惠山区机房,使用的公网 IP 如下
集群架构如下,其中公网 IP 最后一位做了 ABC 替换处理
二、集群部署配置文件 topology.yaml 内容如下
global: user: "tidb" deploy_dir: "/data/tidb-deploy" data_dir: "/data/tidb-data" arch: "amd64"
monitored: node_exporter_port: 9100 blackbox_exporter_port: 9115 deploy_dir: "/data/tidb-deploy/monitored-9100" data_dir: "/data/tidb-data/monitored-9100" log_dir: "/data/tidb-deploy/monitored-9100/log"
server_configs: tidb: log.slow-threshold: 300 binlog.enable: false binlog.ignore-error: false tikv: readpool.storage.use-unified-pool: false readpool.coprocessor.use-unified-pool: true pd: schedule.leader-schedule-limit: 4 schedule.region-schedule-limit: 2048 schedule.replica-schedule-limit: 64pd_servers: - host: 58.214.27.A ssh_port: 20122 name: "pd-1" client_port: 12379 peer_port: 12380 deploy_dir: "/data/tidb-deploy/pd-12379" data_dir: "/data/tidb-data/pd-12379" log_dir: "/data/tidb-deploy/pd-12379/log" - host: 218.90.180.B ssh_port: 20222 name: "pd-2" client_port: 22379 peer_port: 22380 deploy_dir: "/data/tidb-deploy/pd-22379" data_dir: "/data/tidb-data/pd-22379" log_dir: "/data/tidb-deploy/pd-22379/log" - host: 121.235.65.C ssh_port: 20322 name: "pd-3" client_port: 32379 peer_port: 32380 deploy_dir: "/data/tidb-deploy/pd-32379" data_dir: "/data/tidb-data/pd-32379" log_dir: "/data/tidb-deploy/pd-32379/log" tidb_servers: - host: 58.214.27.A ssh_port: 20122 port: 14000 status_port: 10080 deploy_dir: "/data/tidb-deploy/tidb-14000" log_dir: "/data/tidb-deploy/tidb-14000/log" config: log.slow-query-file: /data/tidb-slow-overwrited.log - host: 218.90.180.B ssh_port: 20222 port: 24000 status_port: 20080 deploy_dir: "/data/tidb-deploy/tidb-24000" log_dir: "/data/tidb-deploy/tidb-24000/log" config: log.slow-query-file: /data/tidb-slow-overwrited.log - host: 121.235.65.C ssh_port: 20322 port: 34000 status_port: 30080 deploy_dir: "/data/tidb-deploy/tidb-34000" log_dir: "/data/tidb-deploy/tidb-34000/log" config: log.slow-query-file: /data/tidb-slow-overwrited.log
tikv_servers: - host: 58.214.27.A ssh_port: 20122 port: 10160 status_port: 10180 deploy_dir: "/data/tidb-deploy/tikv-10160" data_dir: "/data/tidb-data/tikv-10160" log_dir: "/data/tidb-deploy/tikv-10160/log" - host: 218.90.180.B ssh_port: 20222 port: 20160 status_port: 20180 deploy_dir: "/data/tidb-deploy/tikv-20160" data_dir: "/data/tidb-data/tikv-20160" log_dir: "/data/tidb-deploy/tikv-20160/log" - host: 121.235.65.C ssh_port: 20322 port: 30160 status_port: 30180 deploy_dir: "/data/tidb-deploy/tikv-30160" data_dir: "/data/tidb-data/tikv-30160" log_dir: "/data/tidb-deploy/tikv-30160/log"
monitoring_servers: - host: 121.235.65.C ssh_port: 20322 port: 9090 deploy_dir: "/data/tidb-deploy/prometheus-8249" data_dir: "/data/tidb-data/prometheus-8249" log_dir: "/data/tidb-deploy/prometheus-8249/log"
grafana_servers: - host: 121.235.65.C ssh_port: 20322 port: 3000 deploy_dir: /data/tidb-deploy/grafana-3000
alertmanager_servers: - host: 121.235.65.C ssh_port: 20322 web_port: 9093 cluster_port: 19094 deploy_dir: "/data/tidb-deploy/alertmanager-9093" data_dir: "/data/tidb-data/alertmanager-9093" log_dir: "/data/tidb-deploy/alertmanager-9093/log"
复制代码
三、集群部署步骤
1、tiup 部署在 tidb03 上
安装tiup工具curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | shsource /root/.bash_profiletiup clustertiup update --self && tiup update cluster
复制代码
2、根据配置文件检查并更新配置
检查风险tiup cluster check ./topology.yaml --user root -p
自动修复风险tiup cluster check ./topology.yaml --apply --user root -p检测通过后就可以安装tidb了tiup cluster deploy qzn v5.4.2 ./topology.yaml --user root -p
复制代码
3、安装完成
四、功能验证
1、安装完成后通过 dashboard 查看集群信息
2、使用 navicat 可以正常连接数据库集群
3、创建数据库
以上完成了同城双机房公网环境下搭建 TIDB 集群工作。
总结:本文主要记录了同城双机房的集群搭建,处于成本考虑,主要使用了公网 ip 的方式,毕竟公网只需要拉一条宽带就可以了,专线的费用是宽带的几十倍,基于成本,只能暂且如此,在安全上,我们做了各个 ip 之间通过防火墙策略限制只能对端 ip 访问,这样保证了集群的网络安全,目前已经完成了方案验证和测试环境搭建,下一步我们计划增加阿里云节点,通过本地双机房 + 阿里云服务器,做到混合云部署 tidb 集群的架构。
评论