高可用 RabbitMQ 集群的搭建及原理分析
任何一个服务,如果仅仅是单机部署,那么性能总是有上限的,RabbitMQ
也不例外,当单台 RabbitMQ
服务处理消息的能力到达瓶颈时,可以通过集群来实现高可用和负载均衡。
===========================================================================
通常情况下,在集群中我们把每一个服务称之为一个节点,在 RabbitMQ
集群中,节点类型可以分为两种:
内存节点:元数据存放于内存中。为了重启后能同步数据,内存节点会将磁盘节点的地址存放于磁盘之中,除此之外,如果消息被持久化了也会存放于磁盘之中,因为内存节点读写速度快,一般客户端会连接内存节点。
磁盘节点:元数据存放于磁盘中(默认节点类型),需要保证至少一个磁盘节点,否则一旦宕机,无法恢复数据,从而也就无法达到集群的高可用目的。
PS:元数据,指的是包括队列名字属性、交换机的类型名字属性、绑定信息、vhost 等基础信息,不包括队列中的消息数据。
RabbitMQ
中的集群主要有两种模式:普通集群模式和镜像队列模式。
在普通集群模式下,集群中各个节点之间只会相互同步元数据,也就是说,消息数据不会被同步。那么问题就来了,假如我们连接到 A
节点,但是消息又存储在 B
节点又怎么办呢?
不论是生产者还是消费者,假如连接到的节点上没有存储队列数据,那么内部会将其转发到存储队列数据的节点上进行存储。虽然说内部可以实现转发,但是因为消息仅仅只是存储在一个节点,那么假如这节点挂了,消息是不是就没有了?这个问题确实存在,所以这种普通集群模式并没有达到高可用的目的。
镜像队列模式下,节点之间不仅仅会同步元数据,消息内容也会在镜像节点间同步,可用性更高。这种方案提升了可用性的同时,因为同步数据之间也会带来网络开销从而在一定程度上会影响到性能。
==========================================================================
接下来让我们一起尝试搭建一个 RabbitMQ
集群:
假如之前启动过单机版,那么先删除旧数据
rm -rf /var/lib/rabbitmq/mnesia
或者删除安装目录内的var/lib/rabbitmq/mnesia
,我本机是安装在安装目录下,所以执行的是命令rm -rf /usr/local/rabbitmq_server-3.8.4/var/lib/rabbitmq/mnesia/
。接下来需要启动以下三个命令来启动三个不同端口号的
RabbitMQ
服务,除了指定RabbitMQ
服务端口之后还需要额外指定后台管理系统的端口,而且必须指定node
名的前缀,因为集群中是以节点名来进行通信的,所以节点名必须唯一,默认的节点名是rabbit@hostname
,下面的命令表示指定了前缀:
RABBITMQ_NODE_PORT=5672 RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15672}]" RABBITMQ_NODENAME=rabbit1 rabbitmq-server -detached
RABBITMQ_NODE_PORT=5673 RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15673}]" RABBITMQ_NODENAME=rabbit2 rabbitmq-server -detached
RABBITMQ_NODE_PORT=5674 RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15674}]" RABBITMQ_NODENAME=rabbit3 rabbitmq-server -detached
启动之后进入 /usr/local/rabbitmq_server-3.8.4/var/lib/rabbitmq/mnesia/
目录查看,发现创建了 3
个节点信息:
另外通过 ps -ef | grep rabbit
也可以发现三个服务进程被启动。
现在启动的三个服务彼此之间还没有联系,现在我们需要以其中一个节点为主节点,然后其余两个节点需要加入主节点,形成一个集群服务,需要注意的是加入集群之前,需要重置节点信息,即不允许带有数据的节点加入集群。
//rabbit2 节点重置后加入集群
rabbitmqctl -n rabbit2 stop_app
rabbitmqctl -n rabbit2 reset
rabbitmqctl -n rabbit2 join_cluster --ram rabbit1@hostname -s
//--ram 表示这是一个内存节点
rabbitmqctl -n rabbit2 start_app
rabbitmqctl -n rabbit3 stop_app
rabbitmqctl -n rabbit3 reset
rabbitmqctl -n rabbit3 join_cluster --disc rabbit1@hostname -s
//--disc 表示磁盘节点(默认也是磁盘节点)
rabbitmqctl -n rabbit3 start_app
成功之后,执行命令
rabbitmqctl cluster_status
查询节点rabbit1
的状态,可以看到下图所示,两个磁盘节点一个内存节点:
需要注意的是,到这里启动的集群只是默认的普通集群,如果想要配置成镜像集群,则需要执行以下命令:
rabbitmqctl -n rabbit1 set_policy ha-all "^" '{"ha-mode":"all"}'
到这里 RabbitMQ
集群就算搭建完成了,不过需要注意的是,这里因为是单机版本,所以没有考虑 .erlang.cookie
文件保持一致。
==========================================================================================
假如一个 RabbitMQ
集群中,有多个内存节点,我们应该连接到哪一个节点呢?这个选择的策略如果放在客户端做,那么会有很大的弊端,最严重的的就是每次扩展集群都要修改客户端代码,所以这种方式并不是很可取,所以我们在部署集群的时候就需要一个中间代理组件,这个组件要能够实现服务监控和转发,比如 Redis
中的 Sentinel
(哨兵)集群模式,哨兵就可以监听 Redis
节点并实现故障转移。
在 RabbitMQ
集群中,通过 Keepalived
和 HAProxy
两个组件实现了集群的高可用性和负载均衡功能。
评论