写点什么

Kafka 集群调优 + 能力探底

  • 2023-12-07
    福建
  • 本文字数:15609 字

    阅读完需:约 51 分钟

一、前言


我们需要对 4 个规格的 kafka 能力进行探底,即其可以承载的最大吞吐;4 个规格对应的单节点的配置如下:


  • 标准版: 2C4G


  • 铂金版: 4C8G


  • 专业版: 8C16G


  • 企业版: 16C32G


另外,一般来讲,在同配置下,kafka 的读性能是要优于写性能的,写操作时,数据要从网卡拷贝至堆内存,然后进行一堆数据校验、解析后,会将数据拷贝至堆外内存,然后再拷贝至操作系统的 page cache,最后操作系统异步刷盘至设备中。而读操作时,kafka 使用了零拷贝技术,数据会从 disk 或 page cache 直接拷贝到网卡,节省了大量的内存拷贝。因此我们这次探底将聚焦于链路的短板,即 kafka 的写操作进行压测

注:本文不是专业的压测报告,而是针对不同集群调优,以获取其最大的吞吐能力


二、磁盘能力探底


在真正开始对 kafka 压测前,我们首先对磁盘的能力进行一个摸底。因为 kafka 是典型的数据型应用,是强依赖磁盘性能的,一旦有了这个数据,那么这个就是 kafka 的性能天花板。如果磁盘是传统的机械磁盘,那么瓶颈毫无悬念一般都会落在磁盘上;但如果磁盘类型是 SSD,而且性能很高的话,操作系统会极力压榨 cpu,从而获取一个最大刷盘吞吐,因此瓶颈在哪就很难讲了


要测试磁盘吞吐的话,2 个变参的影响较大:


  1. 单次写入磁盘的数据量


  1. 写盘的线程数


2.1、单次刷盘大小


现在的硬件厂商,对于磁盘的优化,基本上都是 4K 对齐的,因此我们的参数一般也要设置为 4K 的整数倍,例如 4K\8K\16K... 如果单次写入量小于 4K,例如只写了 10byte,那么底层刷盘的时候,也会刷 4K 的量,这就是臭名昭著的写放大


而具体单次写多少数据量能达到最优呢? 这就需要不断的 benchmark 了


2.2、刷盘线程数


我们知道 kafka 的 broker 通过参数num.io.threads来控制 io 的线程数量,通常是 cpu * 2,不过这个参数并不能真实反应在同一时刻写盘的线程数,因此我们探底的时候,也需要动态修改这个参数,从而获取磁盘真实的吞吐


2.3、探底工具


public class DiskMain2 {    private static final long EXE_KEEP_TIME = 30 * 1000;
public static void main(String[] args) throws Exception { new DiskMain2().begin(args); }
private void begin(String[] args) throws Exception { AtomicLong totalLen = new AtomicLong(); long begin = System.currentTimeMillis(); int threadNum = args.length > 0 ? Integer.parseInt(args[0]) : 4; int msgK = args.length > 1 ? Integer.parseInt(args[1]) : 16; int size = msgK * 1024; List<Thread> threadList = new ArrayList<>(); for (int j = 0; j < threadNum; j++) { Thread thread = new Thread(() -> { try { File file = new File("/bitnami/kafka/" + UUID.randomUUID() + ".txt"); file.createNewFile(); FileChannel channel = FileChannel.open(Paths.get(file.getPath()), StandardOpenOption.WRITE); ByteBuffer byteBuffer = ByteBuffer.allocateDirect(size); for (int i = 0; ; i++) { byteBuffer.clear(); byteBuffer.position(size); byteBuffer.flip(); channel.write(byteBuffer); if (i % 100 == 0) { long cost = System.currentTimeMillis() - begin; if (cost > EXE_KEEP_TIME) { break; } } } channel.force(false); totalLen.addAndGet(file.length()); file.delete(); } catch (IOException e) { throw new RuntimeException(e); } }); thread.start(); threadList.add(thread); } for (Thread thread : threadList) { thread.join(); } long cost = (System.currentTimeMillis() - begin) / 1000; System.out.println((totalLen.get() / 1024 / 1024) + " MB"); System.out.println(cost + " sec"); System.out.println(totalLen.get() / cost / 1024 / 1024 + " MB/sec"); }}
复制代码


简单描述下这个工具做的事儿:启动 M(可配)个线程,每个线程单次往磁盘中写入 N(可配)K 的数据,整个过程持续 30 秒,然后统计所有写入文件的总大小,最后除以时间,从而计算磁盘吞吐


几个注意点:


  • 大块的磁盘写入,一定要使用FileChannel,与 kafka 中的 log 写入对齐


  • 尽量减少 cpu 的使用,将压力下放给磁盘,demo 中使用的 ByteBuffer,通过修改 position 的值模拟大块数据


  • 使用DirectByteBuffer,减少一次堆内存 --> 对外内存的拷贝


2C4G

[root@jmc-pod kafka]# java DiskMain 2 4 802 MB/sec

[root@jmc-pod kafka]# java DiskMain 2 8 1016 MB/sec

[root@jmc-pod kafka]# java DiskMain 2 16 1105 MB/sec

[root@jmc-pod kafka]# java DiskMain 2 32 942 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 4 1013 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 8 941 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 16 1062 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 32 1076 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 4 916 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 8 993 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 16 1035 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 32 982 MB/sec


4C8G

[root@jmc-pod kafka]# java DiskMain 2 16 1320 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 4 2172 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 8 2317 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 16 2580 MB/sec

[root@jmc-pod kafka]# java DiskMain 4 32 2271 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 4 2150 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 8 2315 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 16 2498 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 32 2536 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 64 2434 MB/sec


8C16G

[root@jmc-pod kafka]# java DiskMain 4 16 2732 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 4 3440 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 8 3443 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 16 3531 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 32 3561 MB/sec

[root@jmc-pod kafka]# java DiskMain 8 64 3562 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 4 3515 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 8 3573 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 16 3659 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 32 3673 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 64 3674 MB/sec

[root@jmc-pod kafka]# java DiskMain 12 16 3672 MB/sec


16C32G

[root@jmc-pod kafka]# java DiskMain 16 16 3918 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 8 3814 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 32 3885 MB/sec

[root@jmc-pod kafka]# java DiskMain 16 64 3894 MB/sec

[root@jmc-pod kafka]# java DiskMain 24 8 4053 MB/sec

[root@jmc-pod kafka]# java DiskMain 24 16 4039 MB/sec

[root@jmc-pod kafka]# java DiskMain 24 32 4080 MB/sec

[root@jmc-pod kafka]# java DiskMain 24 64 4050 MB/sec

[root@jmc-pod kafka]# java DiskMain 32 16 4042 MB/sec

[root@jmc-pod kafka]# java DiskMain 32 32 4078 MB/sec


通过反复压测,得出如下结论:



在 kafka 3 副本的经典协议下,上述表格便是其吞吐量的天花板。其中 16C32G 在算力上虽然比 8C16G 强了 1 倍,但其落盘速度却基本持平,在大数据的压力下,瓶颈终究会落在磁盘,因此可以大胆预测,其性能不会比 8C16G 高出太多


分析上述数据可知:


  • 2C4G:磁盘的吞吐量约 1G/s,远没有达到上限,此时的瓶颈在 cpu


  • 4C8G:吞吐量虽上升了一倍不止,不过 cpu 飚满,瓶颈还在 cpu


  • 8C16G:吞吐量约为 3.5G/s,相比较 4C8G 并没有翻倍,后端的 cpu 几乎吃满,光看这组数据不好定位瓶颈


  • 16C32G:终于探到磁盘的底了,在 cpu 还有大量剩余的前提下,磁盘明显写不动了


磁盘的性能是真好,居然能压出 4 GB/s 的速率,叹叹


三、Kafka 吞吐量概述


一般描述某个 kafka 集群的吞吐量时,通常写为 3*n MB/s,例如 3*100 MB/s。 之所以习惯这样描述,是基于 kafka 自身的 3 副本协议,即 1 主 2 备的模式,leader 收到业务流量n后,2 个 follower 还需要从 leader 将数据同步过来,这样在集群角度看来,是一共处理了3*n流量



某个 topic 所拥有的副本数,理论上是不能大于整个集群的 broker 数量的,因为副本本质上是做高可用的,当 topic 的副本数大于整个集群的 broker 数量后,那势必某个 broker 存在 2 个及以上副本,这样也就丧失了高可用的初衷


3.1、集群横向扩容


所谓集群横向扩容,是指为集群添加同构 broker,集群的 broker 数量初始为 3,扩容后可能变为了 6,这里的 broker 数量与 topic 的 replica 不是同一个概念,注意区分。


某个 topic 副本数过多,将带来集群内部大量的数据流转,而副本数过少,例如单副本,又存在一些高可用的风险,因此即便随着 broker 数量的增多,kafka 最佳实践还是建议将 topic 的副本数设置为 3,这样每增加 3 个 broker,集群的能力将会得到横向的扩容




这里的横向扩容出来的能力跟 broker 数量是严格呈线性关系的,本文不会对横向扩容进行压测对比


3.2、集群纵向扩容


纵向扩容是指集群的 broker 数量不变,但是提升 broker 的配置。例如之前集群是3 * 2C4G的规格,进行纵向扩容后,集群将变为3 * 4C8G


broker 的配置线性提升了,其提供的吞吐能力也会随着线性提升吗? 答案是否定的;如果磁盘用的是机械磁盘,我们可能很快能够断言瓶颈将卡在 disk 上,但 SSD 的高吞吐也是非常吃 cpu 的,内容比较复杂,内存、磁盘、cpu 等都息息相关,这里没有很好的捷径,只能 benchmark


纵向压测、对比也是本文的重心


四、发压准备


4.1、客户端准备


4.1.1、发压程序


发压程序使用官方的工具kafka-producer-perf-test.sh,这个工具实际调用的是 kafka 内核中的类:


org.apache.kafka.tools.ProducerPerformance
复制代码


当然,单个 Producer 的 pool、开辟内存、与 server 端的连接等都是有上限的,因此真正发压时,需要启动多个发压进程。发压脚本如下


bash kafka-producer-perf-test.sh \--producer-props \	bootstrap.servers=10.0.0.10:9094,10.0.0.11:9094,10.0.0.12:9094 \	acks=1  \  buffer.memory=134217728 \--producer.config=admin5.conf \--topic topic_6 \--throughput=-1  \--num-records 100000000 \--record-size 1024000
复制代码


admin5.conf 配置如下(因为开启了 ACL 认证,因此需要申明 SASL 配置)


security.protocol=SASL_PLAINTEXTsasl.mechanism=SCRAM-SHA-512sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka-a9asfbx5pl" password="a9asfbxmsn";
复制代码


关于发压脚本的参数配置做一下说明


  • bootstrap.servers 连接集群的接入点


  • acks 响应方式,这个对性能影响非常大,这里使用默认的 1。有 3 种配置


  • 1 : leader 收到消息后便返回成功


  • 0 : 不需要等待任何副本确认


  • -1 : 生产者将等待所有的副本接收到消息并进行确认


  • buffer.memory 这里是设置了 producer 的 128M 的缓冲区,默认为 32M


  • producer.config 因为目标集群开启了 acl,这里需要存放一些相关配置


  • throughput 发送流量的一个上限值,-1 表示不设置上限


  • num-records 发送消息的条数,因为要压测,所以这里放一个大值


  • record-size 每条消息的大小。这里配置的 1M,因为需要压测集群的极限值,这里直接设置一个相对大的值


  • 注意,如果消息大小配置较小的话,可以通过调整 batch.size 及 linger.ms 参数来控制攒批


4.1.2、发压机器


因为 kafka 实例是被 k8s 孵化出来的,因此独立开辟了 5 台 ECS 发压,其配置



因为发压程序不会占用大量 cpu 及内存,当开启多进程压测时,只要网络带宽不是瓶颈就 OK


4.2、服务端准备


4.2.1、常规压测配置


集群新建出来后,有一些关键的配置还是需要留意设置一下的,否则性能会打很大的折扣



4.2.2、副本同步


前文说过,kafka 选择不同的副本同步策略、同步副本数量,对性能影响很大;如果选择单副本的话,那么最大吞吐就是上文使用工具测出来的磁盘性能,而如果选择多副本的话,则整体吞吐的计算公式是是业务流量*副本数,后文我们将针对不同acksnum.replica.fetchers参数以及不同的副本数分别进行压测,最终得出一个多维参考值


4.2.3、服务端监控


服务端监控主要是查看集群整体流量、broker cpu、内存参数。我们通过 top 命令可以快速获取 cpu、memory 参数,而集群整体流量,为了快速获取,可通过 JMX 去拉取 kafka 原生监控项


public class JMXMain {    public static void main(String[] args) throws Exception {        new JMXMain().begin(args);    }
private void begin(String[] args) throws Exception { String metricName = "kafka.server:type=BrokerTopicMetrics,name=BytesInPerSec"; List<MBeanServerConnection> connectionList = initConnectionList(args);
while (true) { long total = 0L; long[] arr = new long[3]; int index = 0; for (MBeanServerConnection connection : connectionList) { Optional<ObjectName> first = connection.queryNames(new ObjectName(metricName), null).stream().findFirst(); if (first.isPresent()) { Object oneMinuteRate = connection.getAttribute(first.get(), "OneMinuteRate"); long single = transToM(oneMinuteRate); arr[index++] = single; total += single; } else { System.out.println("none"); } }
System.out.println(Arrays.toString(arr)); System.out.println("rate is " + total + " MB/sec"); Thread.sleep(10000); } }
private List<MBeanServerConnection> initConnectionList(String[] args) throws Exception { // 10.0.0.21:9094,10.0.0.22:9094,10.0.0.23:9094 List<String> connList = new ArrayList<>(); if (args != null) { for (String ip : args) { String s = "service:jmx:rmi:///jndi/rmi://" + ip + ":5555/jmxrmi"; connList.add(s); } } List<MBeanServerConnection> resultList = new ArrayList<>();// String[] arr = {"service:jmx:rmi:///jndi/rmi://10.0.0.19:5555/jmxrmi", "service:jmx:rmi:///jndi/rmi://10.0.0.20:5555/jmxrmi", "service:jmx:rmi:///jndi/rmi://10.0.0.21:5555/jmxrmi"}; for (String jmxUrl : connList) { System.out.println(jmxUrl); JMXConnector connector = JMXConnectorFactory.connect(new JMXServiceURL(jmxUrl)); MBeanServerConnection connection = connector.getMBeanServerConnection(); resultList.add(connection); } return resultList; } public static long transToM(Object count) { if (count == null) { return 0; } else { double v = Double.parseDouble(count.toString()) / 1024 / 1024; return (long) v; } }}
复制代码


每隔 10 秒打印一下集群整体的流量及每个 broker 各自流量,例如:


[406, 407, 405]rate is 1218 MB/sec[409, 409, 407]rate is 1225 MB/sec[408, 408, 408]rate is 1224 MB/sec[406, 406, 405]rate is 1217 MB/sec
复制代码


注意:这里打印的流量,仅包含 leader 处理的业务流量,不包括 follower 从 leader 同步的备份流量,例如,我创建一个单 partition,3 副本的 topic,然后向集群写入 100MB/s 的流量,因为设置了 3 副本,因此虽然只会向其中某个 broker 发送数据,但是另外 2 个 broker 中同时也均会有 100MB/s 的备份流量,但是使用上述工具则只会打印 leader 的流量: [100, 0, 0]


五、发压


5.1、2C4G


5.1.1、单 partition/单副本


最小配置,首先测试一下单 partition、单 replica 的性能,从而与磁盘极限性能做个对比;这个值体现了 kafka 单 broker 的极限能力


创建 topic:【1 partition、1 replica、acks=1】


发压命令


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh \ --producer-props \	bootstrap.servers=10.0.0.10:9094,10.0.0.11:9094,10.0.0.12:9094 \  acks=0 \  max.request.size=2048000   \--producer.config=/root/kafka_2.12-2.8.2/bin/admin5.conf \--topic topic_1_1 \--throughput=-1  --num-records 100000000 --record-size 1924000
复制代码


当启动了 8 个 producer 客户端后,监控集群的吞吐峰值来到了 550MB/s;其实启动了 4 个客户端后,吞吐量就达到了 530,后续通过增加客户端数量带来的收益越来越小,说明 broker 端能力已达上限


[0, 546, 0]rate is 546 MB/sec[0, 545, 0]rate is 545 MB/sec[0, 550, 0]rate is 550 MB/sec
复制代码


简单做个对比



在开始对磁盘用工具进行压测时候,2C4G 的规格就因为 cpu 成为了短板,压测工具自身没有消耗 cpu 的逻辑,几乎全量的 cpu 都消耗在了刷盘的操作中


而 kafka 的构成要比磁盘工具复杂很多,涉及内存的数据拷贝、数据解析、正确性验证、刷盘等,而这些操作无疑会消耗大量 cpu,cpu 本身就是短板,因此压测出来的 kafka 吞吐量会比理论值低很多


因此当前 2C4G 的 3 节点的极限能力是 3 * 550MB/s


5.1.2、多 partition/三副本/all acks


当选项 acks 设置为 all 时,代表只有当 3 个副本的消息都落盘后,才会 response,这个设置也是严格的保证了数据的高可用,不会有任何数据的丢失,同时这种配置也是效率最低的,我们创建一个 6 partition,3 副本的 topic,同时将 acks 设置为 all,再查看此时的性能,做一个对比


创建 topic:【6 partition、3 replica、acks=all】


发压命令


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh \--producer-props \	bootstrap.servers=10.0.0.10:9094,10.0.0.11:9094,10.0.0.12:9094 \  acks=-1 \  max.request.size=2048000   \--producer.config=/root/kafka_2.12-2.8.2/bin/admin5.conf \--topic topic_6_3 \--throughput=-1  --num-records 100000000 --record-size 1924000
复制代码


启动了 4 个 producer 客户端后,监控集群的吞吐峰值来到了 3 * 320MB/s


[106, 107, 105]rate is 318 MB/sec[107, 107, 106]rate is 320 MB/sec[108, 108, 106]rate is 322 MB/sec[108, 107, 107]rate is 322 MB/sec[108, 107, 107]rate is 322 MB/sec[108, 106, 107]rate is 321 MB/sec
复制代码


4 个客户端的延迟都已经很高,达到了 400ms 左右,说明数据都积攒到了 broker 端排队处理,4 个客户端数据采样:


terminal-1:230 records sent, 45.8 records/sec (84.07 MB/sec), 395.2 ms avg latency, 2228.0 ms max latency.223 records sent, 44.4 records/sec (81.56 MB/sec), 437.7 ms avg latency, 1771.0 ms max latency.
terminal-4:216 records sent, 43.1 records/sec (79.11 MB/sec), 429.5 ms avg latency, 1628.0 ms max latency.225 records sent, 45.0 records/sec (82.54 MB/sec), 399.1 ms avg latency, 1279.0 ms max latency.
复制代码


可见,acks 参数的不同,对最终结果的影响甚大


因 cpu 核数只有 2,因此调整 num.replica.fetchers 参数对最终的压测影响不大,后续等 cpu 核数增加后可以考虑增加此值


5.1.3、多 partition/三副本/leader


然而我们实际生产中,通常既不会将 topic 的副本数设置为 1,也不会将 acks 设置为 all,那么这个时候的最大流量值,体现的便是集群能够处理业务流量的峰值,一旦这个值超过了 550MB/s,那么 follower 一定出现不同程度的落后 leader 的现象,等流量回落后,follower 再逐步进行追赶,因此这个值也是具有相当重要的参考价值


创建 topic:【3 partition、3 replica、acks=1】


发压命令


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh --producer-props bootstrap.servers=10.0.0.10:9094,10.0.0.11:9094,10.0.0.12:9094 acks=1 max.request.size=2048000   --producer.config=/root/kafka_2.12-2.8.2/bin/admin5.conf --topic topic_3_3 --throughput=-1  --num-records 100000000 --record-size 1924000
复制代码


启动了 12 个 producer 客户端后,监控集群的业务流量峰值来到约了 1GB/s


[347, 349, 343]rate is 1039 MB/sec[340, 345, 342]rate is 1027 MB/sec[339, 344, 341]rate is 1024 MB/sec[343, 347, 344]rate is 1034 MB/sec
复制代码


客户端的延迟都已经达到了 400ms 左右,说明瓶颈不在客户端侧,客户端数据采样:


terminal-1:228 records sent, 45.6 records/sec (83.60 MB/sec), 412.7 ms avg latency, 1173.0 ms max latency.268 records sent, 53.5 records/sec (98.11 MB/sec), 334.0 ms avg latency, 774.0 ms max latency.
terminal-3:218 records sent, 43.4 records/sec (79.62 MB/sec), 394.7 ms avg latency, 1422.0 ms max latency.252 records sent, 50.3 records/sec (92.35 MB/sec), 377.1 ms avg latency, 1226.0 ms max latency.
复制代码


注意:我这里并没有使用 3 * 1GB/s 的描述,是因为虽然 leader 确实已经接受了 1GB/s 的流量,但是其并没有在同一时刻事实同步给 follower,事实上,随着时间的推移,follower 已经落后的越来越多


5.1.4、整理总结



5.2、4C8G


相关认证配置 admin7.conf


security.protocol=SASL_PLAINTEXTsasl.mechanism=SCRAM-SHA-512sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka-acegzesojh" password="acegzesfmj";
复制代码


5.2.1、单 partition/单副本


创建 topic:【1 partition、1 replica、acks=1】


当启动了 8 个 producer 端时,集群的流量来到 580 MB/s 左右,这个值与 2C4G 的基本持平,难道它们两个的性能相当吗?其实不尽然,因为单 partition、单副本的 case,注定 broker 将会是同时写入 1 个文件,此时的瓶颈将落在 IO 上,因此,单纯的加 cpu 是不会提升吞吐的


[0, 584, 0]rate is 584 MB/sec[0, 589, 0]rate is 589 MB/sec[0, 586, 0]rate is 586 MB/sec
复制代码


看一下 cpu 的使用率



cpu 基本维持在 180%上下,而 4C 的上限是 400%


5.2.2、multi 【单 partition/单副本】


创建 topic:4 * 【1 partition、1 replica、acks=1】


既然 1 个 topic 无法探知 broker 的上限,那我们就创建多个【单 partition/单副本】的 topic,使其落在同一个 broker 上,然后再向这个 broker 发压即可。(也可以通过手动指定将某个 topic 的分区都分布在 1 台 broker 上实现)


查看 topic_1_1 的 ISR 分布情况:


bash /root/kafka_2.12-2.8.2/bin/kafka-topics.sh \--bootstrap-server 10.0.0.5:9094,10.0.0.9:9094,10.0.0.18:9094 \--command-config  /root/kafka_2.12-2.8.2/bin/admin7.conf  \--describe --topic topic_1_1
复制代码


返回结果


Topic: topic_1_1	Partition: 0	Leader: 1000	Replicas: 1000	Isr: 1000
复制代码


通过这种方式,选取 4 个 topic:topic_1_1、topic_i_1_1、topic_j_1_1、topic_n_1_1,然后每个 topic 启动 4 个 producer 进行发压,也就是一共开启了 16 个 client 端发压


首先看一下 broker 端的流量统计指标,单 broker 的流量来到了 1GB/s


[0, 1009, 0]rate is 1009 MB/sec[0, 1016, 0]rate is 1016 MB/sec[0, 1021, 0]rate is 1021 MB/sec[0, 1016, 0]rate is 1016 MB/sec[0, 1015, 0]rate is 1015 MB/sec
复制代码


再观察一下 cpu 利用率,维持在 400%,已经打满



客户端的监控日志采样。延迟也高达 500ms,说明压力已经完全给到了 broker


196 records sent, 38.8 records/sec (71.24 MB/sec), 457.4 ms avg latency, 560.0 ms max latency.167 records sent, 33.4 records/sec (61.21 MB/sec), 536.9 ms avg latency, 649.0 ms max latency.147 records sent, 29.1 records/sec (53.35 MB/sec), 623.0 ms avg latency, 782.0 ms max latency.184 records sent, 36.6 records/sec (67.19 MB/sec), 489.4 ms avg latency, 588.0 ms max latency.189 records sent, 37.8 records/sec (69.33 MB/sec), 478.6 ms avg latency, 563.0 ms max latency.
复制代码


至此,探知当前配置的单 broker 的处理上限为 1 GB/s,因此集群的最大吞吐为 3 * 1 GB/s


5.2.3、多 partition/三副本/all acks


创建 topic:【6 partition、3 replica、acks=-1】


发压命令


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh \--producer-props \	bootstrap.servers=10.0.0.27:9094,10.0.0.28:9094,10.0.0.29:9094 \  acks=-1 max.request.size=2048000 \--producer.config=/root/kafka_2.12-2.8.2/bin/admin77.conf  \--topic topic_a_6_3 --throughput=-1  \--num-records 100000000 --record-size 1924000
复制代码


吞吐停留在 330 MB/s,怎么跟 2C4G 的相差不大呢?


[112, 111, 111]rate is 334 MB/sec[112, 111, 111]rate is 334 MB/sec[112, 111, 112]rate is 335 MB/sec
复制代码


这里别忘了一个参数 num.replica.fetchers,这个参数默认为 1,调大这个参数将加快 follower 从 leader 拉取数据的速率;我们首先看下当前这个参数的设置:


sh kafka-configs.sh \--bootstrap-server 10.0.0.27:9094,10.0.0.28:9094,10.0.0.29:9094 \--command-config  admin77.conf --all \--entity-type brokers --describe  |  grep "num.replica.fetchers"
复制代码


最终返回


num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}
复制代码


这个参数是可以调用命令进行直接修改的,我们将其修改为 cpu 核数


sh kafka-configs.sh \--bootstrap-server 10.0.0.27:9094,10.0.0.28:9094,10.0.0.29:9094 \--command-config  admin77.conf \--alter --entity-type brokers --entity-default \--add-config 'num.replica.fetchers=4' 
复制代码


最终 broker 的性能提升至了 550 MB/s


[181, 182, 182]rate is 545 MB/sec[183, 184, 183]rate is 550 MB/sec[183, 184, 183]rate is 550 MB/sec
复制代码


cpu 利用率也相当低,大量的耗时都停留在三副本 sync 上



5.2.4、多 partition/三副本/leader


将参数“num.replica.fetchers”调整为默认值后,同时将 acks 设置为 1,再次发压


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh \--producer-props \	bootstrap.servers=10.0.0.27:9094,10.0.0.28:9094,10.0.0.29:9094 \  acks=1 max.request.size=2048000 \--producer.config=/root/kafka_2.12-2.8.2/bin/admin77.conf  \--topic topic_a_6_3 --throughput=-1  \--num-records 100000000 --record-size 1924000
复制代码


共启动了 16 个客户端,流量来到了 2200 MB/s


[734, 737, 733]rate is 2204 MB/sec[734, 736, 744]rate is 2214 MB/sec[737, 745, 741]rate is 2223 MB/sec
复制代码


同时 cpu 被打满



部分发压程序日志采样。随着 producer 的增多,吞吐量维持在恒定值


432 records sent, 86.2 records/sec (158.12 MB/sec), 198.7 ms avg latency, 1601.0 ms max latency.378 records sent, 75.4 records/sec (138.33 MB/sec), 238.2 ms avg latency, 1297.0 ms max latency.413 records sent, 82.4 records/sec (151.17 MB/sec), 222.9 ms avg latency, 1315.0 ms max latency.353 records sent, 70.5 records/sec (129.39 MB/sec), 268.1 ms avg latency, 1442.0 ms max latency.
复制代码


5.2.5、整理总结



5.3、8C16G


用到的配置信息 admin6.conf


security.protocol=SASL_PLAINTEXTsasl.mechanism=SCRAM-SHA-512sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka-acntgcoin9" password="acntgcozqb";
复制代码


5.3.1、multi 【单 partition/单副本】


创建 topic:【12 partition、1 replica、acks=1】


通过命令创建 topic,将 12 个分区全部都放在第一个 broker 上


bash /root/kafka_2.12-2.8.2/bin/kafka-topics.sh \--bootstrap-server 10.0.0.5:9094,10.0.0.6:9094,10.0.0.7:9094 \--command-config  /root/kafka_2.12-2.8.2/bin/admin6.conf  \--create --topic topic_1_1 \--replica-assignment 1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000
复制代码


启动 28 个 producer 端发压客户端后,broker 流量趋于稳定


[1964, 0, 0]rate is 1964 MB/sec[1959, 0, 0]rate is 1959 MB/sec[1962, 0, 0]rate is 1962 MB/sec
复制代码


查看对应 pod 的 cpu 使用率,已经打满



最终得出结论,单台 broker 的吞吐上限为 1.9 GB/s


5.3.2、多 partition/三副本/all acks


创建 topic:【12 partition、3 replica、acks=-1】


当前规格配置较高,需要创建更多的 partition 以压榨更多的 cpu 资源


查看参数 num.replica.fetchers

sh kafka-configs.sh \--bootstrap-server 10.0.0.5:9094,10.0.0.6:9094,10.0.0.7:9094 \--command-config  admin6.conf --all \--entity-type brokers --describe  |  grep "num.replica.fetchers"
复制代码


返回


  num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}  num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}  num.replica.fetchers=1 sensitive=false synonyms={DEFAULT_CONFIG:num.replica.fetchers=1}
复制代码


用同样的方法查看参数 replica.fetch.max.bytes,返回


replica.fetch.max.bytes=30240000 sensitive=false synonyms={STATIC_BROKER_CONFIG:replica.fetch.max.bytes=30240000, DEFAULT_CONFIG:replica.fetch.max.bytes=1048576}replica.fetch.max.bytes=30240000 sensitive=false synonyms={STATIC_BROKER_CONFIG:replica.fetch.max.bytes=30240000, DEFAULT_CONFIG:replica.fetch.max.bytes=1048576}replica.fetch.max.bytes=30240000 sensitive=false synonyms={STATIC_BROKER_CONFIG:replica.fetch.max.bytes=30240000, DEFAULT_CONFIG:replica.fetch.max.bytes=1048576}
复制代码


将参数 num.replica.fetchers 修改为 cpu 核数


sh kafka-configs.sh \--bootstrap-server 10.0.0.5:9094,10.0.0.6:9094,10.0.0.7:9094 \--command-config  admin6.conf \--alter --entity-type brokers --entity-default \--add-config 'num.replica.fetchers=8' 
复制代码


发压


bash /root/kafka_2.12-2.8.2/bin/kafka-producer-perf-test.sh \--producer-props \	bootstrap.servers=10.0.0.5:9094,10.0.0.6:9094,10.0.0.7:9094 \	acks=-1  \max.request.size=2048000   \--producer.config=/root/kafka_2.12-2.8.2/bin/admin6.conf \--topic topic_a_12_3 --throughput=-1  --num-records 100000000 --record-size 1924000
复制代码


一共启动了 24 个 producer 压测,强劲的 cpu 发挥了作用,写入速率达到了 950 M/s


[315, 315, 315]rate is 945 MB/sec[315, 317, 318]rate is 950 MB/sec[313, 317, 317]rate is 947 MB/sec
复制代码


5.3.3、多 partition/三副本/leader


创建 topic:【12 partition、3 replica、acks=1】


按照常规,我们压一下三副本写 leader 的 case;此时 num.replica.fetchers 同样设置为 8


启动 28 个压测客户端后,流量趋于稳定


1034, 1032, 1028]rate is 3094 MB/sec[1034, 1038, 1034]rate is 3106 MB/sec[1036, 1039, 1040]rate is 3115 MB/sec
复制代码


客户端延迟 1s+


426 records sent, 85.1 records/sec (156.14 MB/sec), 204.5 ms avg latency, 1791.0 ms max latency.
复制代码


broker cpu 使用率接近饱和



至此,可以得出结论,陡增业务流量可承接 3.1 GB/s


5.3.4、整理总结


当前规格,cpu 还是短板,无法触及磁盘的 3.6GB/s


5.4、16C32G


这个配置规格与另外 3 个规格有本质的区别,当前规格在使用磁盘压测工具时,已经窥探到了磁盘的上限,我们继续 benchmark,看它的压测数据。用到的配置信息 admin0.conf


security.protocol=SASL_PLAINTEXTsasl.mechanism=SCRAM-SHA-512sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka-acrk9ciqkx" password="acrk9cihnz";
复制代码


5.4.1、multi 【单 partition/单副本】


创建 topic:【24 partition、1 replica、acks=1】


通过命令创建 topic,将 24 个分区全部都放在第一个 broker 上


bash /root/kafka_2.12-2.8.2/bin/kafka-topics.sh \--bootstrap-server 10.0.0.5:9094,10.0.0.6:9094,10.0.0.7:9094 \--command-config  /root/kafka_2.12-2.8.2/bin/admin0.conf  \--create --topic topic_1_1 \--replica-assignment \1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000,1000
复制代码


启动 35 个 producer 端发压客户端后,broker 流量趋于稳定


[0, 2714, 0]rate is 2714 MB/sec[0, 2717, 0]rate is 2717 MB/sec[0, 2719, 0]rate is 2719 MB/sec
复制代码


查看对应 pod 的 cpu 使用率



最终得出结论,单台 broker 的吞吐上限为 2.7 GB/s


不对啊,这个与预期不符的,单 broker 能力上限的探测,8C16G 已经达到了 1.9G/s,而当前配置预期可以达到 4G/s 的,可无论怎么压,顶多到达 2.7+ GB/s,到底哪里是瓶颈呢?


  • cpu ? cpu 明显不是瓶颈,当前 broker 的 cpu 使用率还有富余


  • 磁盘? 2.7 GB/s 显然没有达到 disk 的上限,上文已经探知其上限为 4GB/s


  • 发压端? 发压端为了压测最大规格的实例,又额外申请了一个 16C32G 的压测机,而且即便是将客户端数量提升至 40 个,依旧没有变化,甚至可能有小幅度的下掉


既然都不是瓶颈,为什么吞吐上不去呢?难道瓶颈落在了网卡上?


5.4.2、网卡带宽探测--iperf3


这里我们还是很有必要探测一下网卡带宽的上限,使用的压测工具是


「iperf3」


  • 启动 server 端程序

  • iperf3 -s

  • 这里-s 是-server 的缩写,标明当前启动的是 server 端程序,默认监听 5201 端口

  • 启动 client 端

  • iperf3 -c 21.100.18.151 -P 8

  • -c 指启动 client 端,后面的 IP 是 server 端 IP

  • -P 8 启动并发连接数。这个要额外注意,如果不指定的话,默认是启动 1 个链接测试,这个时候网卡是打不满的,具体设置为多少能打满,需要反复不断测试


当将并发连接数设置为 8 时,达到网络传输的峰值


server 端日志


[SUM]   0.00-10.04  sec  23.6 GBytes  20.2 Gbits/sec                  receiver
复制代码


client 端日志


...[SUM]   6.00-7.00   sec  2.64 GBytes  22.7 Gbits/sec    0             ....
[SUM] 0.00-10.00 sec 23.7 GBytes 20.3 Gbits/sec 214 sender[SUM] 0.00-10.04 sec 23.6 GBytes 20.2 Gbits/sec receiver
iperf Done.
复制代码


虽然压测的平均速率是 20.3 Gbits/sec,但其曾经最高速率达到了 22.7 Gbits/sec,因此我们就那这个进行计算。因为这个的单位是 bit,我们需要将其转换为 byte


22.7Gbits/8 = 2.8 GB/s


果然与我们压测的 2.72 GB 对应上了,压力实实在在的给到了网卡


5.4.3、多 partition/三副本/all acks


创建 topic:【24 partition、3 replica、acks=-1】


根据之前的磁盘压测工具已经判断出,当前的规格实例的 cpu 已经不是短板,因此我们这里将 partition 数量设置大一些。另外一些配置的修改


  • 将参数 num.replica.fetchers 修改为 cpu 核数


  • 将参数 replica.fetch.max.bytes 设置为 20M


这样做的目的是加快 follower 同步 leader 数据的速率,经过一段时间发压后,broker 端的速率来到了 1350 MB/s


[448, 450, 446]rate is 1344 MB/sec[451, 450, 450]rate is 1351 MB/sec[452, 451, 450]rate is 1353 MB/sec
复制代码


8C16G 的速率接近 1GB/s,而当前规格虽然配置翻倍了,但是速率却没能翻倍,为什么呢?其实这里也是符合预期的,因为 8C16G 的集群已经非常接近磁盘上限了,压出了 3580 MB/s 的吞吐,而 16C32G 也只能压出 4GB/s 的吞吐,因此瓶颈已经悄悄转移至磁盘上了(acks=all 的情况,很大一部分开销在 3 副本的 sync 上)


其实这里我对不同 partition 的速率也做了压测,这里简单公布结论


5.4.4、整理总结


因为已经将短板确定为网卡,我们这里不再对峰值进行赘述



六、总结


此处我们还是有必要对流量规格再做个说明,以 2C4G 来举例,我们对外宣讲的流量规格是

「 3 * 550 MB/s 」


即集群可以处理 550 MB/s 的吞吐,且在集群内部做好了经典三副本同步,因此站在 partiton leader 的视角,我们脑海中的画面可能是这样的:



而实际结果很有可能是这样的



甚至这样



这取决于 follower 从 leader 的拉取策略,比如参数 num.replica.fetchers、replica.fetch.max.bytes 等的配置,但在磁盘吞吐较高的背景下,又加剧了同步的不稳定性;以下分别以低 IO 及高 IO 进行阐述


  • 低 IO:集群的磁盘吞吐并不高,例如 50 MB/s,集群的吞吐瓶颈会落在了 IO 上,因此当数据进来后会首先进入 page cache 中,然后再由操作系统异步刷盘到磁盘中。因为吞吐不高,因此新数据在 page cache 中存活的时间相对较长,当 follower 从 leader 拉取数据时,数据大概率还在 cache 当中,此时调用 kafka 的零拷贝,将数据 copy 走,性能快,速率稳定,且不占用磁盘 IO


  • 高 IO:就像我们现在部署的集群,IO 的吞吐非常高,拿 2C4G 的规格来讲,单 broker 的写入速率可达 550 MB/s,而内存只有 4 个 G,其中 Java 堆内存又会占用 2.5 个 G,以及操作系统本身的占用,留给 page cache 的空间满打满算也就 1G 左右,那数据进入在 page cache 中停留的时间不会超过 2 秒,等 follower 来拉取数据时,大概率是需要从 disk 设备中进行二次读取的,这就占用了磁盘的带宽,也让整个拉取的过程变得相对不稳定


但我们同样测出了 acks=all 场景中,流量的一个相对精确的保底值,供大家参考


总结各规格集群吞吐如下



测试多规格 kafka 集群的极限吞吐是一个艰巨的任务,其中至少涉及


  • 网络

  • cpu

  • 磁盘/网络 IO

  • kafka 攒批模式/消息体大小

  • 刷盘策略

  • 不同规格的 partition 控制

  • replica 副本同步策略

  • 发压端控制

  • 网络线程/IO 线程搭配

  • 等等。。


这些环节中,只要有 1 个掉链子,那整个链路的吞吐也会拉胯;另外上述所有 case,Java 堆空间只分配了系统一半的内存,另一半留给了 page cache


文章转载自:昔久

原文链接:https://www.cnblogs.com/xijiu/p/17878078.html

用户头像

还未添加个人签名 2023-06-19 加入

还未添加个人简介

评论

发布
暂无评论
Kafka集群调优+能力探底_kafka_快乐非自愿限量之名_InfoQ写作社区