Kafka 如何修改分区 Leader
提示:本文可能已过期,请点击原文查看:Kafka如何修改分区Leader
该文章可能已过期,已不做勘误并更新,请访问原文地址(持续更新) 如何修改分区的指定副本为Leader|设计方案kafka 知识图谱: Kafka知识图谱大全
🔥《Kafka运维管控平台》🔥✏️更强大的管控能力✏️🎾更高效的问题定位能力🎾🌅更便捷的集群运维能力🌅🎼更专业的资源治理🎼🌞更友好的运维生态🌞
大家好,我是石臻臻,这是 「kafka专栏」 连载中的第「N」篇文章...
前几天有个群友问我: kafka 如何修改优先副本?他们有个需求是, 想指定某个分区中的其中一个副本为Leader
在这里插入图片描述
1 需求分析
对于这么一个问题,在我们生产环境还是挺常见的,经常有需要修改某个 Topic 中某分区的Leader
比如 topic1-0
这个分区有 3 个副本[0,1,2]
, 按照「优先副本」的规则,那么 0
号副本肯定就是Leader
了我们都知道分区中的只有Leader
副本才会提供读写副本,其他副本作为备份假如在某些情况下,「0」
号副本性能资源不够,或者网络不太好,或者 IO 压力比较大,那么肯定对 Topic 的整体读写性能有很大影响, 这个时候切换一台压力较小副本作为Leader
就显得很重要;
优先副本: 分区中的AR
(所有副本)信息, 优先选择排在第一位的副本作为 Leader Leader 机制: 分区中只有一个 Leader 来承担读写,其他副本只是作为备份
那么如何实现这样一个需求呢?
2 解决方案
知道了原理之后,我们就能想到对应的解决方案了只要将 分区的 AR
中的第一个位置,替换成你指定副本就行了;AR = { 0,1,2 } ==> AR = {2,1,0}
一般能够达到这个目的有两种方案,下面我们来分析一下
方案一: 分区副本重分配
之前关于分区副本重分配 我已经写过很多文章了,如果想详细了解 分区副本重分配、数据迁移、副本扩缩容 可以看看链接的文章, 这里我就简单说一下;
一般分区副本重分配主要有三个流程
生成推荐的迁移 Json 文件
执行迁移 Json 文件
验证迁移流程是否完成
这里我们主要看第 2 步骤, 来看看迁移文件一般是什么样子的
这个迁移 Json 意思是, 把topic1
的「0」号分区的副本分配成[0,1,2]
,也就是说 topic1-0
号分区最终有 3 个副本分别在 {brokerId-0,brokerId-1,brokerId-2} ; 如果你有看过我之前写的 分区副本重分配原理源码分析 ,那么肯定就知道,不管你之前的分配方式是什么样子的, 最终副本分配都是 [0,1,2], 之前副本多的,会被删掉,少的会被新增;
那么我们想要实现 我们的需求是不是把这个 Json 文件 中的"replicas": [0,1,2]改一下就行了,比如改成"replicas": [2,1,0]改完 Json 后执行,执行execute
, 正式开始重分配流程! 迁移完成之后, 就会发现,Leader 已经变成上面的第一个位置的副本「2」了
优缺点
优点: 实现了需求, 并且主动切换了 Leader
缺点: 操作比较复杂容易出错,需要先获取原先的分区分配数据,然后手动修改 Json 文件,这里比较容易出错,影响会比较大,当然这些都可以通过校验接口来做好限制, 最重要的一点是 副本重分配当前只能有一个任务!假如你当前有一个「副本重分配」的任务在,那么这里就不能够执行了, 「副本重分配」是一个比较「重」了的操作,出错对集群的影响比较大
方案二: 手动修改 AR 顺序
首先,我们知道分区副本的分配数据是保存在 zookeeper 中的节点brokers/topics/{topicName}
中; 我们看个Topic1
的节点数据例子;
数据解释:version:
版本信息, 现在有 「1」、「2」 两个版本
removing_replicas:
需要删除的副本数据, 在进行分区副本重分配过程中,多余的副本会在数据迁移快完成的时候被删除掉,删除成功这里的数据会被清除
adding_replicas:
需要新增的副本数据,在进行分区副本重分配过程中,新增加的副本将会被新增,新增完成这里的数据会清除;
partitions:
Topic 的所有分区副本分配方式; 上面表示总共有 5 个分区,以及对应的副本位置;
知道了这些之后,想要修改优先副本,是不是可以通过直接修改 zookeeper 中的节点数据就行了; 比如我们把 「1」号分区的副本位置改成 [2,1,3]
改成这样之后, 还需要 执行 重新进行优先副本选举操作,例如通过 kafka 的命令执行
--election-type
: PREFERRED
这个表示的以优先副本的方式进行重新选举
那么做完这两步之后, 我们的修改优先副本的目的就达成了.........吗 ?
实则并没有, 因为这里仅仅只是修改了 zookeeper
节点的数据, 而bin/kafka-leader-election.sh
重选举的操作是Controller
来进行的; 如果你对Controller
的作用和源码足够了解, 肯定知道 Controller 里面保存了每个 Topic 的分区副本信息, 是保存在 JVM 内存中的, 然后我们手动修改 Zookeeper 中的节点,并没有触发 Controller
更新自身的内存也就是说 就算我们执行了kafka-leader-election.sh
, 它也不会有任何变化,因为优先副本没有被感知到修改了;
解决这个问题也很简单,让Controller
感知到数据的变更就行了最简单的方法, 让Controller
发生重新选举, 数据重新加载!
总结
手动修改 zookeeper 中的「AR」顺序
Controller 重新选举
执行 分区副本重选举操作(优先副本策略)
简单代码当然上面功能,肯定是要集成到LogiKM
中的咯; 简单代码如下
优缺点
优点: 实现了目标需求, 简单, 操作方便
缺点: 频繁的Controller
重选举对生产环境来说会有一些影响;
3 优化与改进
第二种方案中,需要Controller
重选举, 频繁的选举肯定是对生产环境有影响的;Controller
承担了非常多的责任,比如分区副本重分配
、删除topic
、Leader选举
等等还有很多都是它在干
那么如何不进行 Controller 的重选举,也能达到我们的需求呢?
我们的需求是,当我们 修改了 zookeeper 中的节点数据的时候,能够迅速的让 Controller 感知到,并更新自己的内存数据就行了;
对于这个问题,我会在下一期文章中介绍
4 问题
看完这篇文章,提几个相关的问题给大家思考一下;
如果我在修改 zk 中的「AR」信息时候不仅仅是调换顺序,而是有新增或者删除副本会发生什么情况呢?
如果手动修改
brokers/topics/{topicName}/partitions/{分区号}/state
节点里面的 leader 信息,能不能直接更新 Leader?副本选举的整个流程是什么样子的?
大家可以思考一下, 问题答案我会在后面的文章中一一讲解!
点个关注, 推送更多干货内容, 一起进【滴滴技术答疑群 】跟众多技术专家交流技术吧!
版权声明: 本文为 InfoQ 作者【石臻臻的杂货铺】的原创文章。
原文链接:【http://xie.infoq.cn/article/4b4a689ec4c87bdda9a522810】。未经作者许可,禁止转载。
评论