Kafka 万亿级消息实战
一、Kafka 应用
本文主要总结当 Kafka 集群流量达到 万亿级记录/天或者十万亿级记录/天 甚至更高后,我们需要具备哪些能力才能保障集群高可用、高可靠、高性能、高吞吐、安全的运行。
这里总结内容主要针对 Kafka2.1.1 版本,包括集群版本升级、数据迁移、流量限制、监控告警、负载均衡、集群扩/缩容、资源隔离、集群容灾、集群安全、性能优化、平台化、开源版本缺陷、社区动态等方面。本文主要是介绍核心脉络,不做过多细节讲解。下面我们先来看看 Kafka 作为数据中枢的一些核心应用场景。
下图展示了一些主流的数据处理流程,Kafka 起到一个数据中枢的作用。
接下来看看我们 Kafka 平台整体架构;
1.1 版本升级
1.1.1 开源版本如何进行版本滚动升级与回退
1.1.1.2 源码改造如何升级与回退
由于在升级过程中,必然出现新旧代码逻辑交替的情况。集群内部部分节点是开源版本,另外一部分节点是改造后的版本。所以,需要考虑在升级过程中,新旧代码混合的情况,如何兼容以及出现故障时如何回退。
1.2 数据迁移
由于 Kafka 集群的架构特点,这必然导致集群内流量负载不均衡的情况,所以我们需要做一些数据迁移来实现集群不同节点间的流量均衡。Kafka 开源版本为数据迁移提供了一个脚本工具“bin/kafka-reassign-partitions.sh”,如果自己没有实现自动负载均衡,可以使用此脚本。
开源版本提供的这个脚本生成迁移计划完全是人工干预的,当集群规模非常大时,迁移效率变得非常低下,一般以天为单位进行计算。当然,我们可以实现一套自动化的均衡程序,当负载均衡实现自动化以后,基本使用调用内部提供的 API,由程序去帮我们生成迁移计划及执行迁移任务。需要注意的是,迁移计划有指定数据目录和不指定数据目录两种,指定数据目录的需要配置 ACL 安全认证。
1.2.1 broker 间数据迁移
不指定数据目录
指定数据目录
1.2.2 broker 内部磁盘间数据迁移
生产环境的服务器一般都是挂载多块硬盘,比如 4 块/12 块等;那么可能出现在 Kafka 集群内部,各 broker 间流量比较均衡,但是在 broker 内部,各磁盘间流量不均衡,导致部分磁盘过载,从而影响集群性能和稳定,也没有较好的利用硬件资源。在这种情况下,我们就需要对 broker 内部多块磁盘的流量做负载均衡,让流量更均匀的分布到各磁盘上。
1.2.3 并发数据迁移
当前 Kafka 开源版本(2.1.1 版本)提供的副本迁移工具“bin/kafka-reassign-partitions.sh”在同一个集群内只能实现迁移任务的串行。对于集群内已经实现多个资源组物理隔离的情况,由于各资源组不会相互影响,但是却不能友好的进行并行的提交迁移任务,迁移效率有点低下,这种不足直到 2.6.0 版本才得以解决。如果需要实现并发数据迁移,可以选择升级 Kafka 版本或者修改 Kafka 源码。
1.2.4 终止数据迁移
当前 Kafka 开源版本(2.1.1 版本)提供的副本迁移工具“bin/kafka-reassign-partitions.sh”在启动迁移任务后,无法终止迁移。当迁移任务对集群的稳定性或者性能有影响时,将变得束手无策,只能等待迁移任务执行完毕(成功或者失败),这种不足直到 2.6.0 版本才得以解决。如果需要实现终止数据迁移,可以选择升级 Kafka 版本或者修改 Kafka 源码。
1.3 流量限制
1.3.1 生产消费流量限制
经常会出现一些突发的,不可预测的异常生产或者消费流量会对集群的 IO 等资源产生巨大压力,最终影响整个集群的稳定与性能。那么我们可以对用户的生产、消费、副本间数据同步进行流量限制,这个限流机制并不是为了限制用户,而是避免突发的流量影响集群的稳定和性能,给用户可以更好的服务。
如下图所示,节点入流量由 140MB/s 左右突增到 250MB/s,而出流量则从 400MB/s 左右突增至 800MB/s。如果没有限流机制,那么集群的多个节点将有被这些异常流量打挂的风险,甚至造成集群雪崩。
图片生产/消费流量限制官网地址:点击链接
对于生产者和消费者的流量限制,官网提供了以下几种维度组合进行限制(当然,下面限流机制存在一定缺陷,后面在“Kafka 开源版本功能缺陷”我们将提到):
在启动 Kafka 的 broker 服务时需要开启 JMX 参数配置,方便通过其他应用程序采集 Kafka 的各项 JMX 指标进行服务监控。当用户需要调整限流阈值时,根据单个 broker 所能承受的流量进行智能评估,无需人工干预判断是否可以调整;对于用户流量限制,主要需要参考的指标包括以下两个:
1.3.2 follower 同步 leader/数据迁移流量限制
副本迁移/数据同步流量限制官网地址:链接
涉及参数如下:
辅助指标如下:
1.4 监控告警
关于 Kafka 的监控有一些开源的工具可用使用,比如下面这几种:
KafkaOffsetMonitor;
我们已经把 Kafka Manager 作为我们查看一些基本指标的工具嵌入平台,然而这些开源工具不能很好的融入到我们自己的业务系统或者平台上。所以,我们需要自己去实现一套粒度更细、监控更智能、告警更精准的系统。其监控覆盖范围应该包括基础硬件、操作系统(操作系统偶尔出现系统进程 hang 住情况,导致 broker 假死,无法正常提供服务)、Kafka 的 broker 服务、Kafka 客户端应用程序、zookeeper 集群、上下游全链路监控。
1.4.1 硬件监控
网络监控:
核心指标包括网络入流量、网络出流量、网络丢包、网络重传、处于 TIME.WAIT 的 TCP 连接数、交换机、机房带宽、DNS 服务器监控(如果 DNS 服务器异常,可能出现流量黑洞,引起大面积业务故障)等。
磁盘监控:
核心指标包括监控磁盘 write、磁盘 read(如果消费时没有延时,或者只有少量延时,一般都没有磁盘 read 操作)、磁盘 ioutil、磁盘 iowait(这个指标如果过高说明磁盘负载较大)、磁盘存储空间、磁盘坏盘、磁盘坏块/坏道(坏道或者坏块将导致 broker 处于半死不活状态,由于有 crc 校验,消费者将被卡住)等。
CPU 监控:
监控 CPU 空闲率/负载,主板故障等,通常 CPU 使用率比较低不是 Kafka 的瓶颈。
内存/交换区监控:
内存使用率,内存故障。一般情况下,服务器上除了启动 Kafka 的 broker 时分配的堆内存以外,其他内存基本全部被用来做 PageCache。
缓存命中率监控:
由于是否读磁盘对 Kafka 的性能影响很大,所以我们需要监控 Linux 的 PageCache 缓存命中率,如果缓存命中率高,则说明消费者基本命中缓存。
详细内容请阅读文章:《Linux Page Cache调优在Kafka中的应用》。
系统日志:
我们需要对操作系统的错误日志进行监控告警,及时发现一些硬件故障。
1.4.2 broker 服务监控
broker 服务的监控,主要是通过在 broker 服务启动时指定 JMX 端口,然后通过实现一套指标采集程序去采集 JMX 指标。(服务端指标官网地址)
broker 级监控:broker 进程、broker 入流量字节大小/记录数、broker 出流量字节大小/记录数、副本同步入流量、副本同步出流量、broker 间流量偏差、broker 连接数、broker 请求队列数、broker 网络空闲率、broker 生产延时、broker 消费延时、broker 生产请求数、broker 消费请求数、broker 上分布 leader 个数、broker 上分布副本个数、broker 上各磁盘流量、broker GC 等。
topic 级监控:topic 入流量字节大小/记录数、topic 出流量字节大小/记录数、无流量 topic、topic 流量突变(突增/突降)、topic 消费延时。
partition 级监控:分区入流量字节大小/记录数、分区出流量字节大小/记录数、topic 分区副本缺失、分区消费延迟记录、分区 leader 切换、分区数据倾斜(生产消息时,如果指定了消息的 key 容易造成数据倾斜,这严重影响 Kafka 的服务性能)、分区存储大小(可以治理单分区过大的 topic)。
用户级监控:用户出/入流量字节大小、用户出/入流量被限制时间、用户流量突变(突增/突降)。
broker 服务日志监控:对 server 端打印的错误日志进行监控告警,及时发现服务异常。
1.4.3.客户端监控
客户端监控主要是自己实现一套指标上报程序,这个程序需要实现
org.apache.kafka.common.metrics.MetricsReporter 接口。然后在生产者或者消费者的配置中加入配置项 metric.reporters,如下所示:
客户端指标官网地址:
http://kafka.apache.org/21/documentation.html#selector_monitoring
http://kafka.apache.org/21/documentation.html#common_node_monitoring
http://kafka.apache.org/21/documentation.html#producer_monitoring
http://kafka.apache.org/21/documentation.html#producer_sender_monitoring
http://kafka.apache.org/21/documentation.html#consumer_monitoring
http://kafka.apache.org/21/documentation.html#consumer_fetch_monitoring
客户端监控流程架构如下图所示:
1.4.3.1 生产者客户端监控
维度:用户名称、客户端 ID、客户端 IP、topic 名称、集群名称、brokerIP;
指标:连接数、IO 等待时间、生产流量大小、生产记录数、请求次数、请求延时、发送错误/重试次数等。
1.4.3.2 消费者客户端监控
维度:用户名称、客户端 ID、客户端 IP、topic 名称、集群名称、消费组、brokerIP、topic 分区;
指标:连接数、io 等待时间、消费流量大小、消费记录数、消费延时、topic 分区消费延迟记录等。
1.4.4 Zookeeper 监控
1) Zookeeper 进程监控;
2) Zookeeper 的 leader 切换监控;
3) Zookeeper 服务的错误日志监控;
1.4.5 全链路监控
当数据链路非常长的时候(比如:业务应用->埋点 SDk->数据采集->Kafka->实时计算->业务应用),我们定位问题通常需要经过多个团队反复沟通与排查才能发现问题到底出现在哪个环节,这样排查问题效率比较低下。在这种情况下,我们就需要与上下游一起梳理整个链路的监控。出现问题时,第一时间定位问题出现在哪个环节,缩短问题定位与故障恢复时间。
1.5 资源隔离
1.5.1 相同集群不同业务资源物理隔离
我们对所有集群中不同对业务进行资源组物理隔离,避免各业务之间相互影响。在这里,我们假设集群有 4 个 broker 节点(Broker1/Broker2/Broker3/Broker4),2 个业务(业务 A/业务 B),他们分别拥有 topic 分区分布如下图所示,两个业务 topic 都分散在集群的各个 broker 上,并且在磁盘层面也存在交叉。
试想一下,如果我们其中一个业务异常,比如流量突增,导致 broker 节点异常或者被打挂。那么这时候另外一个业务也将受到影响,这样将大大的影响了我们服务的可用性,造成故障,扩大了故障影响范围。
针对这些痛点,我们可以对集群中的业务进行物理资源隔离,各业务独享资源,进行资源组划分(这里把 4 各 broker 划分为 Group1 和 Group2 两个资源组)如下图所示,不同业务的 topic 分布在自己的资源组内,当其中一个业务异常时,不会波及另外一个业务,这样就可以有效的缩小我们的故障范围,提高服务可用性。
1.6 集群归类
我们把集群根据业务特点进行拆分为日志集群、监控集群、计费集群、搜索集群、离线集群、在线集群等,不同场景业务放在不同集群,避免不同业务相互影响。
1.7 扩容/缩容
1.7.1 topic 扩容分区
随着 topic 数据量增长,我们最初创建的 topic 指定的分区个数可能已经无法满足数量流量要求,所以我们需要对 topic 的分区进行扩展。扩容分区时需要考虑一下几点:
必须保证 topic 分区 leader 与 follower 轮询的分布在资源组内所有 broker 上,让流量分布更加均衡,同时需要考虑相同分区不同副本跨机架分布以提高容灾能力;
当 topic 分区 leader 个数除以资源组节点个数有余数时,需要把余数分区 leader 优先考虑放入流量较低的 broker。
1.7.2 broker 上线
随着业务量增多,数据量不断增大,我们的集群也需要进行 broker 节点扩容。关于扩容,我们需要实现以下几点:
扩容智能评估:根据集群负载,把是否需要扩容评估程序化、智能化;
智能扩容:当评估需要扩容后,把扩容流程以及流量均衡平台化。
1.7.3 broker 下线
某些场景下,我们需要下线我们的 broker,主要包括以下几个场景:
一些老化的服务器需要下线,实现节点下线平台化;
服务器故障,broker 故障无法恢复,我们需要下线故障服务器,实现节点下线平台化;
有更优配置的服务器替换已有 broker 节点,实现下线节点平台化。
1.8 负载均衡
我们为什么需要负载均衡呢?首先,我们来看第一张图,下图是我们集群某个资源组刚扩容后的流量分布情况,流量无法自动的分摊到我们新扩容后的节点上。那么这个时候需要我们手动去触发数据迁移,把部分副本迁移至新节点上才能实现流量均衡。
下面,我们来看一下第二张图。这张图我们可以看出流量分布非常不均衡,最低和最高流量偏差数倍以上。这和 Kafka 的架构特点有关,当集群规模与数据量达到一定量后,必然出现当问题。这种情况下,我们也需要进行负载均衡。
我们再来看看第三张图。这里我们可以看出出流量只有部分节点突增,这就是 topic 分区在集群内部不够分散,集中分布到了某几个 broker 导致,这种情况我们也需要进行扩容分区和均衡。
我们比较理想的流量分布应该如下图所示,各节点间流量偏差非常小,这种情况下,既可以增强集群扛住流量异常突增的能力又可以提升集群整体资源利用率和服务稳定性,降低成本。
负载均衡我们需要实现以下效果:
1)生成副本迁移计划以及执行迁移任务平台化、自动化、智能化;
2)执行均衡后 broker 间流量比较均匀,且单个 topic 分区均匀分布在所有 broker 节点上;
3)执行均衡后 broker 内部多块磁盘间流量比较均衡;
要实现这个效果,我们需要开发一套自己的负载均衡工具,如对开源的 cruise control 进行二次开发;此工具的核心主要在生成迁移计划的策略,迁移计划的生成方案直接影响到最后集群负载均衡的效果。参考内容:
2. Introduction to Kafka Cruise Control
3. Cloudera Cruise Control REST API Reference
cruise control 架构图如下:
在生成迁移计划时,我们需要考虑以下几点:
1)选择核心指标作为生成迁移计划的依据,比如出流量、入流量、机架、单 topic 分区分散性等;
2)优化用来生成迁移计划的指标样本,比如过滤流量突增/突降/掉零等异常样本;
3)各资源组的迁移计划需要使用的样本全部为资源组内部样本,不涉及其他资源组,无交叉;
4)治理单分区过大 topic,让 topic 分区分布更分散,流量不集中在部分 broker,让 topic 单分区数据量更小,这样可以减少迁移的数据量,提升迁移速度;
5)已经均匀分散在资源组内的 topic,加入迁移黑名单,不做迁移,这样可以减少迁移的数据量,提升迁移速度;
6)做 topic 治理,排除长期无流量 topic 对均衡的干扰;
7)新建 topic 或者 topic 分区扩容时,应让所有分区轮询分布在所有 broker 节点,轮询后余数分区优先分布流量较低的 broker;
8)扩容 broker 节点后开启负载均衡时,优先把同一 broker 分配了同一大流量(流量大而不是存储空间大,这里可以认为是每秒的吞吐量)topic 多个分区 leader 的,迁移一部分到新 broker 节点;
9)提交迁移任务时,同一批迁移计划中的分区数据大小偏差应该尽可能小,这样可以避免迁移任务中小分区迁移完成后长时间等待大分区的迁移,造成任务倾斜;
1.9 安全认证
是不是我们的集群所有人都可以随意访问呢?当然不是,为了集群的安全,我们需要进行权限认证,屏蔽非法操作。主要包括以下几个方面需要做安全认证:
(1)生产者权限认证;
(2)消费者权限认证;
(3)指定数据目录迁移安全认证;
1.10 集群容灾
跨机架容灾:
跨集群/机房容灾:如果有异地双活等业务场景时,可以参考 Kafka2.7 版本的 MirrorMaker 2.0。
GitHub 地址:https://github.com
精确 KIP 地址 :https://cwiki.apache.org
ZooKeeper 集群上 Kafka 元数据恢复:我们会定期对 ZooKeeper 上的权限信息数据做备份处理,当集群元数据异常时用于恢复。
1.11 参数/配置优化
broker 服务参数优化:这里我只列举部分影响性能的核心参数。
生产优化:这里我只列举部分影响性能的核心参数。
除了一些核心参数优化外,我们还需要考虑比如 topic 的分区个数和 topic 保留时间;如果分区个数太少,保留时间太长,但是写入数据量非常大的话,可能造成以下问题:
1)topic 分区集中落在某几个 broker 节点上,导致流量副本失衡;
2)导致 broker 节点内部某几块磁盘读写超负载,存储被写爆;
1.11.1 消费优化
消费最大的问题,并且经常出现的问题就是消费延时,拉历史数据。当大量拉取历史数据时将出现大量读盘操作,污染 pagecache,这个将加重磁盘的负载,影响集群性能和稳定;
可以怎样减少或者避免大量消费延时呢?
1)当 topic 数据量非常大时,建议一个分区开启一个线程去消费;
2)对 topic 消费延时添加监控告警,及时发现处理;
3)当 topic 数据可以丢弃时,遇到超大延时,比如单个分区延迟记录超过千万甚至数亿,那么可以重置 topic 的消费点位进行紧急处理;【此方案一般在极端场景才使用】
4)避免重置 topic 的分区 offset 到很早的位置,这可能造成拉取大量历史数据;
1.11.2 Linux 服务器参数优化
我们需要对 Linux 的文件句柄、pagecache 等参数进行优化。可参考《Linux Page Cache调优在Kafka中的应用》。
1.12.硬件优化
磁盘优化
在条件允许的情况下,可以采用 SSD 固态硬盘替换 HDD 机械硬盘,解决机械盘 IO 性能较低的问题;如果没有 SSD 固态硬盘,则可以对服务器上的多块硬盘做硬 RAID(一般采用 RAID10),让 broker 节点的 IO 负载更加均衡。如果是 HDD 机械硬盘,一个 broker 可以挂载多块硬盘,比如 12 块*4TB。
内存
由于 Kafka 属于高频读写型服务,而 Linux 的读写请求基本走的都是 Page Cache,所以单节点内存大一些对性能会有比较明显的提升。一般选择 256GB 或者更高。
网络
提升网络带宽:在条件允许的情况下,网络带宽越大越好。因为这样网络带宽才不会成为性能瓶颈,最少也要达到万兆网络( 10Gb,网卡为全双工)才能具备相对较高的吞吐量。如果是单通道,网络出流量与入流量之和的上限理论值是 1.25GB/s;如果是双工双通道,网络出入流量理论值都可以达到 1.25GB/s。
网络隔离打标:由于一个机房可能既部署有离线集群(比如 HBase、Spark、Hadoop 等)又部署有实时集群(如 Kafka)。那么实时集群和离线集群挂载到同一个交换机下的服务器将出现竞争网络带宽的问题,离线集群可能对实时集群造成影响。所以我们需要进行交换机层面的隔离,让离线机器和实时集群不要挂载到相同的交换机下。即使有挂载到相同交换机下面的,我们也将进行网络通行优先级(金、银、铜、铁)标记,当网络带宽紧张的时候,让实时业务优先通行。
CPU
Kafka 的瓶颈不在 CPU,单节点一般有 32 核的 CPU 都足够使用。
1.13.平台化
现在问题来了,前面我们提到很多监控、优化等手段;难道我们管理员或者业务用户对集群所有的操作都需要登录集群服务器吗?答案当然是否定的,我们需要丰富的平台化功能来支持。一方面是为了提升我们操作的效率,另外一方面也是为了提升集群的稳定和降低出错的可能。
配置管理
黑屏操作,每次修改 broker 的 server.properties 配置文件都没有变更记录可追溯,有时可能因为有人修改了集群配置导致一些故障,却找不到相关记录。如果我们把配置管理做到平台上,每次变更都有迹可循,同时降低了变更出错的风险。
滚动重启
当我们需要做线上变更时,有时候需要对集群对多个节点做滚动重启,如果到命令行去操作,那效率将变得很低,而且需要人工去干预,浪费人力。这个时候我们就需要把这种重复性的工作进行平台化,提升我们的操作效率。
集群管理
集群管理主要是把原来在命令行的一系列操作做到平台上,用户和管理员不再需要黑屏操作 Kafka 集群;这样做主要有以下优点:
提升操作效率;
操作出错概率更小,集群更安全;
所有操作有迹可循,可以追溯;
集群管理主要包括:broker 管理、topic 管理、生产/消费权限管理、用户管理等
1.13.1 mock 功能
在平台上为用户的 topic 提供生产样例数据与消费抽样的功能,用户可以不用自己写代码也可以测试 topic 是否可以使用,权限是否正常;
在平台上为用户的 topic 提供生产/消费权限验证功能,让用户可以明确自己的账号对某个 topic 有没有读写权限;
1.13.2 权限管理
把用户读/写权限管理等相关操作进行平台化。
1.13.3 扩容/缩容
把 broker 节点上下线做到平台上,所有的上线和下线节点不再需要操作命令行。
1.13.4 集群治理
1)无流量 topic 的治理,对集群中无流量 topic 进行清理,减少过多无用元数据对集群造成的压力;
2)topic 分区数据大小治理,把 topic 分区数据量过大的 topic(如单分区数据量超过 100GB/天)进行梳理,看看是否需要扩容,避免数据集中在集群部分节点上;
3)topic 分区数据倾斜治理,避免客户端在生产消息的时候,指定消息的 key,但是 key 过于集中,消息只集中分布在部分分区,导致数据倾斜;
4)topic 分区分散性治理,让 topic 分区分布在集群尽可能多的 broker 上,这样可以避免因 topic 流量突增,流量只集中到少数节点上的风险,也可以避免某个 broker 异常对 topic 影响非常大;
5)topic 分区消费延时治理;一般有延时消费较多的时候有两种情况,一种是集群性能下降,另外一种是业务方的消费并发度不够,如果是消费者并发不够的化应该与业务联系增加消费并发。
1.13.5 监控告警
1)把所有指标采集做成平台可配置,提供统一的指标采集和指标展示及告警平台,实现一体化监控;
2)把上下游业务进行关联,做成全链路监控;
3)用户可以配置 topic 或者分区流量延时、突变等监控告警;
1.13.6 业务大屏
业务大屏主要指标:集群个数、节点个数、日入流量大小、日入流量记录、日出流量大小、日出流量记录、每秒入流量大小、每秒入流量记录、每秒出流量大小、每秒出流量记录、用户个数、生产延时、消费延时、数据可靠性、服务可用性、数据存储大小、资源组个数、topic 个数、分区个数、副本个数、消费组个数等指标。
1.13.7 流量限制
把用户流量现在做到平台,在平台进行智能限流处理。
1.13.8 负载均衡
把自动负载均衡功能做到平台,通过平台进行调度和管理。
1.13.9 资源预算
当集群达到一定规模,流量不断增长,那么集群扩容机器从哪里来呢?业务的资源预算,让集群里面的多个业务根据自己在集群中当流量去分摊整个集群的硬件成本;当然,独立集群与独立隔离的资源组,预算方式可以单独计算。
1.14.性能评估
1.14.1 单 broker 性能评估
我们做单 broker 性能评估的目的包括以下几方面:
1)为我们进行资源申请评估提供依据;
2)让我们更了解集群的读写能力及瓶颈在哪里,针对瓶颈进行优化;
3)为我们限流阈值设置提供依据;
4)为我们评估什么时候应该扩容提供依据;
1.14.2 topic 分区性能评估
1)为我们创建 topic 时,评估应该指定多少分区合理提供依据;
2)为我们 topic 的分区扩容评估提供依据;
1.14.3 单磁盘性能评估
1)为我们了解磁盘的真正读写能力,为我们选择更合适 Kafka 的磁盘类型提供依据;
2)为我们做磁盘流量告警阈值设置提供依据;
1.14.4 集群规模限制摸底
1)我们需要了解单个集群规模的上限或者是元数据规模的上限,探索相关信息对集群性能和稳定性的影响;
2)根据摸底情况,评估集群节点规模的合理范围,及时预测风险,进行超大集群的拆分等工作;
1.15 DNS+LVS 的网络架构
当我们的集群节点达到一定规模,比如单集群数百个 broker 节点,那么此时我们生产消费客户端指定 bootstrap.servers 配置时,如果指定呢?是随便选择其中几个 broker 配置还是全部都配上呢?
其实以上做法都不合适,如果只配置几个 IP,当我们配置当几个 broker 节点下线后,我们当应用将无法连接到 Kafka 集群;如果配置所有 IP,那更不现实啦,几百个 IP,那么我们应该怎么做呢?
方案:采用 DNS+LVS 网络架构,最终生产者和消费者客户端只需要配置域名就可以啦。需要注意的是,有新节点加入集群时,需要添加映射;有节点下线时,需要从映射中踢掉,否则这批机器如果拿到其他的地方去使用,如果端口和 Kafka 的一样的话,原来集群部分请求将发送到这个已经下线的服务器上来,造成生产环境重点故障。
二、开源版本功能缺陷
RTMP 协议主要的特点有:多路复用,分包和应用层协议。以下将对这些特点进行详细的描述。
2.1 副本迁移
无法实现增量迁移;【我们已经基于 2.1.1 版本源码改造,实现了增量迁移】;
无法实现并发迁移;【开源版本直到 2.6.0 才实现了并发迁移】;
无法实现终止迁移;【我们已经基于 2.1.1 版本源码改造,实现了终止副本迁移】【开源版本直到 2.6.0 才实现了暂停迁移,和终止迁移有些不一样,不会回滚元数据】;
当指定迁移数据目录时,迁移过程中,如果把 topic 保留时间改短,topic 保留时间针对正在迁移 topic 分区不生效,topic 分区过期数据无法删除;【开源版本 bug,目前还没有修复】;
当指定迁移数据目录时,当迁移计划为以下场景时,整个迁移任务无法完成迁移,一直处于卡死状态;【开源版本 bug,目前还没有修复】;
迁移过程中,如果有重启 broker 节点,那个 broker 节点上的所有 leader 分区无法切换回来,导致节点流量全部转移到其他节点,直到所有副本被迁移完毕后 leader 才会切换回来;【开源版本 bug,目前还没有修复】。
2.2 流量协议
限流粒度较粗,不够灵活精准,不够智能。
当前限流维度组合
存在问题
当同一个 broker 上有多个用户同时进行大量的生产和消费时,想要让 broker 可以正常运行,那必须在做限流时让所有的用户流量阈值之和不超过 broker 的吞吐上限;如果超过 broker 上限,那么 broker 就存在被打挂的风险;然而,即使用户流量没有达到 broker 的流量上限,但是,如果所有用户流量集中到了某几块盘上,超过了磁盘的读写负载,也会导致所有生产、消费请求将被阻塞,broker 可能处于假死状态。
解决方案
(1)改造源码,实现单个 broker 流量上限限制,只要流量达到 broker 上限立即进行限流处理,所有往这个 broker 写的用户都可以被限制住;或者对用户进行优先级处理,放过高优先级的,限制低优先级的;
(2)改造源码,实现 broker 上单块磁盘流量上限限制(很多时候都是流量集中到某几块磁盘上,导致没有达到 broker 流量上限却超过了单磁盘读写能力上限),只要磁盘流量达到上限,立即进行限流处理,所有往这个磁盘写的用户都可以被限制住;或者对用户进行优先级处理,放过高优先级的,限制低优先级的;
(3)改造源码,实现 topic 维度限流以及对 topic 分区的禁写功能;
(4)改造源码,实现用户、broker、磁盘、topic 等维度组合精准限流;
三、kafka 发展趋势
3.1 Kafka社区迭代计划
3.3 controller与broker分离,引入raft协议作为controller的仲裁机制(KIP-630)
3.4 分层存储(KIP-405)
3.7 下载与各版本特性说明
3.8 Kafka所有KIP地址
四、如何贡献社区
4.1 哪些点可以贡献
http://kafka.apache.org/contributing
4.2 wiki 贡献地址
https://cwiki.apache.org/confluence/dashboard.action#all-updates
4.3 issues 地址
1)https://issues.apache.org/jira/projects/KAFKA/issues/KAFKA-10444?filter=allopenissues
2)https://issues.apache.org/jira/secure/BrowseProjects.jspa?selectedCategory=all
4.4 主要 committers
http://kafka.apache.org/committers
作者:vivo 互联网服务器团队-Yang Yijun
版权声明: 本文为 InfoQ 作者【vivo互联网技术】的原创文章。
原文链接:【http://xie.infoq.cn/article/791e5ad44ea689cdd5a027593】。文章转载请联系作者。
评论