京东 8 年资深架构师为你解析:Kafka 源码解析实战。为你解忧
相信使用过 Kafka 的朋友都知道其吞吐量可以高达百万,但很少人理解其中的设计原理。认真读完这篇文章,你会对 Kafka Broker 请求处理流程和网络架构设计实现细节,有更加深刻的理解。
开篇三问: Kafka Broker 端网络架构和请求处理到底是使用了哪些高大上的技术?它到底解决了什么问题?究竟是怎么解决的?
只有了解了这些, 我们才能深刻掌握 Kafka 服务端设计精髓所在,更加深刻理解一个高并发、高性能服务端架构该如何设计。
相信使用过 Kafka 的朋友都知道其吞吐量可以高达百万,但很少人理解其中的设计原理。认真读完这篇文章,你会对 Kafka Broker 请求处理流程和网络架构设计实现细节,有更加深刻的理解。
这篇文章干货很多,希望大家可以耐心读完。需要 PDF 资料的朋友文末可领取!
01 总体概述要想理解 Kafka Broker 请求处理架构设计,我们需要从简单请求处理模型来说起。对于日常系统开发,我们都知道是基于 Request/Response 的模式来实现的, 对于 Kafka 来说, 无论是 Producer 端、Consumer 端 还是 Broker 端,他们之间的请求交互也都是基于「Request/Response」模式来完成的。比如,客户端会通过网络发送消息生产请求给 Broker,而 Broker 处理完成后,会发送对应的响应给到客户端。下面,我会从自我设计角度出发,如果是我们会如何设计,带你一步步演化出来「kafka Broker 的网络请求处理」架构。在这个过程中,你会看到 Kafka 在处理请求的过程中会遇到哪些高性能和高并发问题,以及架构为什么要这样演进,从而理解 Kafka 这么设计的意义和精妙之处。02 顺序处理模式我们从最简单的网络编程思路处理方式讲起。因为对于 Kafka Broker 来说就是用来接收生产者发送过来的请求,那这个时候最简单的实现大概是这样的:
如上述代码所示:我们可以理解 Kafka 每个服务器启动起来后就是一个 while 循环, 不断的 accept 生产者提交上来的请求, 然后进行处理并存储到磁盘上,这种方式实现最简单,也非常好理解,但是这种方式存在 2 个致命的缺陷?1)请求阻塞:只能顺序处理每个请求,即每个请求都必须等待前一个请求处理完毕才能得到处理。2)吞吐量非常差:由于只能顺序处理,无法并发,效率太低,所以吞吐量非常差,只适合请求发送非常不频繁的系统。从上面来看很明显,如果你的 Kafka 系统请求并发量很大,意味着要处理的时间就会越久。那按照前面我们提到的 Kafka「吞吐量」的标准,这个方案远远无法满足我们对高性能、高并发的要求。那有什么更好的方案可以快速处理请求吗?接下来我们可以试着采取这个方案:独立线程异步处理模式。03 多线程异步处理模式既然同步方式会阻塞请求,吞吐量差, 我们可以尝试着使用独立线程异步方式进行处理, 即经典的 connection per thread 模型, 那这个时候的实现大概是这样的:
如上述代码所示:同上还是一个 while 循环不断的 accept 生产者提交上来的请求,但是这时候 Kafka 系统会为每个请求都创建一个「单独的线程」来处理。这个实现方案的好处就是:1)吞吐量稍强:相对上面同步方式的方案,一定程度上极大地提高了服务器的吞吐量。2)非阻塞:它是完全异步的,每个请求的处理都不会阻塞下一个请求。但同样缺陷也同样很明显:即为每个请求都创建线程的做法开销很大,在某些高并发场景下会压垮整个服务。可见,这个方案也只适用于请求发送频率很低的业务场景。还是无法满足我们对高性能、高并发的要求。既然这种方案还是不能满足, 那么我们究竟该使用什么方案来支撑高并发呢?这个时候我们可以想想我们日常开发用到的 7 层负载 Nginx 或者 Redis 在处理高并发请求的时候是使用什么方案呢?从上面启发你可以看出,提升系统 I/O 并发性能的关键思路就是:事件驱动。想必大家已经猜到了,没错,就是「多路复用」。那么 Kafka 是不是也是采用这种方案来实现呢?这里我们先考虑采用基于「事件驱动」的设计方案,当有事件触发时,才会调用处理器进行数据处理。04 Reactor 模式在高性能网络编程领域,有一个非常著名的模式——Reactor 模式。那么何为「Reactor 模式」,首先它是基于事件驱动的,有一个或多个并发输入源,有一个 Service Handler,有多个 Request Handler;这个 Service Handler 会同步的将输入的请求轮询地分发给相应的 Request Handler 进行处理。借助于 Doug Lea(就是那位让人无限景仰的大爷)的 "Scalable IO in Java" 中讲述的 Reactor 模式。简单来说,Reactor 模式特别适合应用于处理多个客户端并发向服务器端发送请求的场景。这里借用大神 PDF 中的一幅图来说明 Reactor 架构:
从上面这张图中,我们可以看出多个客户端会发送请求给到 Reactor。Reactor 有个请求分发线程 Dispatcher,也就是图中的绿色的 Acceptor,它会将不同的请求下分发到多个工作线程中处理。在这个架构中,Acceptor 线程只是用来进行请求分发,所以非常轻量级,因此会有很高的吞吐量。而这些工作线程可以根据实际系统负载情况动态调节系统负载能力,从而达到请求处理的平衡性。基于上面的 Reactor 架构, 我们来看看如果是我们该如何设计 Kafka 服务端的架构?
1)这里我们采用多路复用方案,Reactor 设计模式,并引用 Java NIO 的方式可以更好的解决上面并发请求问题。2)当 Client 端将请求发送到 Server 端的时候, 首先在 Server 端有个多路复用器(Selector),然后会启动一个 Accepter 线程将 OP_CONNECT 事件注册到多路复用器上, 主要用来监听连接事件到来。3)当监听到连接事件后,就会在多路复用器上注册 OP_READ 事件, 这样 Cient 端发送过来的请求, 都会被接收到。如果请求特别多的话, 我们这里进行优化, 创建一个 Read HandlePool 线程池。4)当 Read HandlePool 线程池接收到请求数据后,最终会交给 Handler ThreadPool 线程池进行后续处理。比如如果是生产者发送过来的请求,肯定会解析请求体,处理并最终存储到磁盘中,待处理完后要返回处理结果状态, 这时候就由它在多路复用器上注册 OP_WRITE 事件来完成。这样多路复用器遍历到 OP_WRITE 事件后就会将请求返回到 Client 端。5)在上图中我们看到在整个流程中还有一个 MessageQueue 的队列组件存在, 为什么要加这个组件呢? 我们可以想象一下, 如果请求量非常大,直接交给 Handler ThreadPool 线程池进行处理, 可能会出现该线程池处理不过来的情况发生,如果处理不过来,也会出现阻塞瓶颈。所以这里我们在 Server 端内部也设计一个消息队列, 起到一个缓冲的作用,Handler ThreadPool 线程池会根据自己的负载能力进行处理。以上就是我们引用了「多路复用」的设计方案,但是 Kafka Broker 端就是这样的架构设计方案吗?如果我们是 Kafka 系统架构的设计者,采用这样的架构设计方案会不会还是有什么问题,有没有哪个环节会出现系统性能瓶颈呢?这是个值得思考的问题, 很考验你的架构设计能力。细心的读者可能会发现:对于 Kafka 这种超高并发系统来说,一个 Selector 多路复用器是 Hold 不住的,从上图可以得出,我们监听这些连接、接收请求、处理响应结果都是同一个 Selector 在进行处理,很容易成为系统性能瓶颈。接下来,我们将进一步进行优化,为了减轻当前 Selector 的处理负担,引入另外一个 Selector 处理队列,如下图所示:
1)首先上图是目前我认为最接近 Kafka Broker 真实架构设计方案的。2)整体架构跟上一版的类似,只不过这里多引入了一个多 Selector 处理队列,原来的 Selector 只负责监听连接, 这时候有读者就会有疑问,请求量超级大的时候,一个 Selector 会不会成为瓶颈呢? 这里可以大可放心, 这时候它的工作非常单一,是完全能 hold 住的。3)那么对于我们接收请求、处理请求、返回状态操作都会交由多 Selector 处理队列,至于这里到底需要多少个 Selector,又会跟什么参数和配置有关系,我们后续再进行分析,总之这里记住有多个 Selector 就行了,这样系统压力就会被分散处理。4)另外我们要搞清楚的一点就是对于 Kafka 服务端指的是每个 Broker 节点,如果我们的服务集群总共有 10 个节点, 每个节点内部都是上面的这样的架构,这样我们就有理由相信如果采用这样的架构设计方案,是可以支持高并发和高性能的。架构设计方案演进到这里,基本上已经差不多了,接下来我们看看 Kafka 真实超高并发的网络架构是如何设计的。05 Kafka 超高并发网络架构在上面 Kafka 高性能、高吞吐量架构演进的时候,我们提到了 Java NIO 以及 Reactor 设计模式。实际上,搞透了「Kafka 究竟是怎么使用 NIO 来实现网络通信的」,不仅能让我们掌握 Kafka 请求处理全流程处理,也能让我们对 Reactor 设计模式有更深的理解,还能帮助我们解决很多实际问题。在<kafka 三高架构设计剖析> 和 <聊聊 Kafka Producer 那点事> 中也讲过关于 Kafka 网络架构,读者可以去查阅,今天我们再次深入的对其进行剖析。那么接下来我们就来深入剖析下 Kafka 的 NIO 通讯机制吧。我们先从整体上看一下完整的网络通信层架构,如下图所示:
1)从上图中我们可以看出,Kafka 网络通信架构中用到的组件主要由两大部分构成:SocketServer 和 RequestHandlerPool。2)SocketServer 组件是 Kafka 超高并发网络通信层中最重要的子模块。它包含 Acceptor 线程、Processor 线程和 RequestChannel 等对象,都是网络通信的重要组成部分。它主要实现了 Reactor 设计模式,主要用来处理外部多个 Clients(这里的 Clients 可能包含 Producer、Consumer 或其他 Broker)的并发请求,并负责将处理结果封装进 Response 中,返还给 Clients。3)RequestHandlerPool 组件就是我们常说的 I/O 工作线程池,里面定义了若干个 I/O 线程,主要用来执行真实的请求处理逻辑。4)这里注意的是:跟 RequestHandler 相比, 上面所说的 Acceptor、Processor 线程 还有 RequestChannel 等都不做请求处理, 它们只是请求和响应的「搬运工」。接下来我们来具体聊聊 SocketServer 中的实现原理,这里先来讲讲:Acceptor 线程 Processor 线程以 Kafka 2.5 版本
1、我们先来聊聊 Acceptor 线程在经典的 Reactor 设计模式有个 「Dispatcher」 的角色,主要用来接收外部请求并分发给下面的实际处理线程。通过上面分析我们知道在 Kafka 网络架构设计中,这个 Dispatcher 就是「Acceptor 线程」。Acceptor 线程是用来接收和创建外部 TCP 连接的线程。在 Broker 端每个 SocketServer 实例只会创建一个 Acceptor 线程。它的主要功能就是创建连接,并将接收到的 Request 请求传递给下游的 Processor 线程处理。复制代码
这里重点看下 Acceptor 线程中三个非常关键且重要的属性和方法:1.1、nioSelector:它就是我们所熟悉的 Java NIO 库中的 Selector 对象实例,所有网络通信组件实现 Java NIO 机制的基础。1.2、processors:通过源码我们可以知道在 Acceptor 线程在初始化时,需要创建对应的 Processor 线程池。由此可以得出,Processor 线程是在 Acceptor 线程中管理和维护的。1.3、run 方法:它是处理 Reactor 模式中分发逻辑的主要实现方法。
1)从上述源码中,我们可以看出 Acceptor 线程主要使用了 Java NIO 的 Selector 以及 SocketChannel 的方式循环的轮询准备就绪的 I/O 事件。2)这里的 I/O 事件主要是指网络连接创建事件即:SelectionKey.OP_ACCEPT。3)这样注册好事件后,一旦后续接收到连接请求后,Acceptor 线程就会指定一个 Processor 线程,并将该请求交给它并创建网络连接用于后续处理。2、接下来我们来聊聊 Processor 线程:从上面分析我们知道 Acceptor 只是做了请求入口连接处理的,那么,真正创建网络连接以及分发网络请求是由 Processor 线程来完成的。复制代码
从上面 Processor 线程源码,可以看出 Kafka 的代码逻辑实现的非常好,各个子方法的边界非常清楚。这里我们就不展开源码分析了, 更深入详细的等到源码分析专题再进行。我们简单的看下 Processor 线程初始化时要做的事情。看上面代码最后部分,我们知道每个 Processor 线程在创建时都会创建 3 个队列。1)newConnections 队列: 它主要是用来保存要创建的新连接信息,也就是 SocketChannel 对象,目前是硬编码队列长度大小为 20。每当 Processor 线程接收到新的连接请求时,都会将对应的 SocketChannel 对象放入队列,等到后面创建连接时,从该队列中获取 SocketChannel,然后注册新的连接。2)inflightResponse 队列:它是一个临时的 Response 队列, 当 Processor 线程将 Repsonse 返回给 Client 之后,要将 Response 放入该队列。它存在的意义:由于有些 Response 回调逻辑要在 Response 被发送回 Request 发送方后,才能执行,因此需要暂存到临时队列。3)ResponseQueue 队列:它主要是存放需要返回给 Request 发送方的所有 Response 对象。通过源码得知:每个 Processor 线程都会维护自己的 Response 队列。
06 请求处理核心流程剖析上面深入的剖析了 Kafka 超高并发网络架构 以及 SocketServer 中的 Acceptor 线程跟 Processor 线程的实现原理, 接下来我们来将请求处理核心流程给串起来。只有搞透这部分的实现原理,才能帮助我们有针对性的进行 Broker 端请求处理的性能调优。比如:在上面网络架构图,有两个参数跟整个流程有关系,分别是 num.network.threads、num.io.threads。如果我们不掌握请求处理的整个流程,就不能更好的对此进行调整,来达到更高的性能要求。其中 num.io.threads 就是 I/O 工作线程池的大小配置,即 KafkaRequestHandlerPool 线程池,它才是「真正处理 Kafka 请求」的地方。
/** * A thread that answers kafka requests. */ class KafkaRequestHandler(id: Int, //I/O 线程序号 brokerId: Int, //所在 Broker 序号,即 broker.id 值 val aggregateIdleMeter: Meter, val totalHandlerThreads: AtomicInteger, //I/O 线程池大小 val requestChannel: RequestChannel, //请求处理通道 apis: KafkaApis, //KafkaApis 类,用于真正实现请求处理逻辑的类 time: Time) extends Runnable with Logging { ...... def run(): Unit = { while (!stopped) { val startSelectTime = time.nanoseconds // 从请求队列中获取下一个待处理的请求 val req = requestChannel.receiveRequest(300) val endTime = time.nanoseconds // 统计线程空闲时间 val idleTime = endTime - startSelectTime // 更新线程空闲百分比指标 aggregateIdleMeter.mark(idleTime / totalHandlerThreads.get) req match { // 当关闭线程请求处理 case RequestChannel.ShutdownRequest => ...... // 当普通请求到来时 case request: RequestChannel.Request => try { request.requestDequeueTimeNanos = endTime // 由 KafkaApis.handle 方法执行相应处理逻辑 apis.handle(request) } catch { .... } finally { // 释放请求对象资源 request.releaseBuffer() } case null => // continue } } shutdownComplete.countDown() } }
下面我们结合 Kafka 超高并发网络架构图来讲解下一个完整请求处理核心流程:1)Clients 发送请求给 Acceptor 线程。2)Acceptor 线程会创建 NIO Selector 对象,并创建 ServerSocketChannel 实例,然后将 Channel 和 OP_ACCEPT 事件到 Selector 多路复用器上。3)Acceptor 线程还会默认创建 3 个大小的 Processor 线程池,参数:num.network.threads, 并轮询的将请求对象 SocketChannel 放入到连接队列中(newConnections)。4)这时候连接队列就源源不断有请求数据了,然后不停地执行 NIO Poll, 获取对应 SocketChannel 上已经准备就绪的 I/O 事件。5)Processor 线程向 SocketChannel 注册了 OP_READ/OP_WRITE 事件,这样 客户端发过来的请求就会被该 SocketChannel 对象获取到,具体就是 CompleteReceives。6)这个时候客户端就可以源源不断进行请求发送了,服务端通过 Selector NIO Poll 不停的获取准备就绪的 I/O 事件。7)然后根据 Channel 中获取已经完成的 Receive 对象,构建 Request 对象,并将其存入到 Requestchannel 的 RequestQueue 请求队列中 。8)这个时候就该 I/O 线程池上场了,KafkaRequestHandler 线程循环地从请求队列中获取 Request 实例,然后交由 KafkaApis 的 handle 方法,执行真正的请求处理逻辑,并最终将数据存储到磁盘中。9)待处理完请求后,KafkaRequestHandler 线程会将 Response 对象放入 Processor 线程的 Response 队列。10)然后 Processor 线程通过 Request 中的 ProcessorID 不停地从 Response 队列中来定位并取出 Response 对象,返还给 Request 发送方。至此,我们深入剖析 Kafka 请求处理「核心流程」。07 系统调优搞透了 Kafka 超高并发网络架构设计和请求处理核心流程后,我们来聊聊 Broker 端参数调优。对 Kafka 而言,性能一般是指吞吐量和延时。所以高吞吐量、低延时是我们调优 Kafka 集群的主要目标。Broker 端调优主要就是合理地设置 Broker 端参数值,以匹配你的生产环境。另外还有一点要说明的就是「保证服务器端和客户端版本的一致」,做到这一点,就能获得很多性能收益了。num.network.threads 创建 Processor 处理网络请求线程个数,建议设置为 Broker 当前 CPU 核心数*2,这个值太低经常出现网络空闲太低而缺失副本。num.io.threads 创建 KafkaRequestHandler 处理具体请求线程个数,建议设置为 Broker 磁盘个数*2。num.replica.fetchers 建议设置为 CPU 核心数/4,适当提高可以提升 CPU 利用率及 Follower 同步 Leader 数据当并行度 compression.type 建议采用 lz4 压缩类型,压缩可以提升 CPU 利用率同时可以减少网络传输数据量。http://log.flush.xxxlog.flush.scheduler.interval.mslog.flush.interval.mslog.flush.interval.messages 这几个参数表示日志数据刷新到磁盘的策略,应该保持默认配置,刷盘策略让操作系统去完成,由操作系统来决定什么时候把数据刷盘;如果设置来这个参数,可能对吞吐量影响非常大 auto.leader.rebalance.enable 表示是否开启 leader 自动负载均衡,默认 true;我们应该把这个参数设置为 false,因为自动负载均衡不可控,可能影响集群性能和稳定。08 总结这里,我们一起来总结一下这篇文章的重点。1、对于 Kafka 这样一个优秀的服务端系统架构来说,应该遵循高可用、高性能、高并发 3 大原则。2、本文从最简单的网络编程思路出发一步一步演进到 Reactor 设计模式,假设我们就是 Kafka 架构的设计者,我们该如何设计其服务端网络架构。3、通过本文的深度剖析,提升系统 I/O 性能的核心是基于「事件驱动」模型实现。4、在剖析完服务端网络架构后,我们也深度剖析了 SocketServer 中两个最重要的线程:Acceptor 线程和 Processor 线程。5、接着我们结合 Kafka 超高并发网络架构图又梳理了 Kafka 请求处理核心流程。6、最后给大家分析并做了 Broker 端系统调优的方案。Kafka 背后的优秀设计一、应用场景异步解构:在上下游没有强依赖的业务关系或针对单次请求不需要立刻处理的业务系统缓冲:有利于解决服务系统的吞吐量不一致的情况,尤其对处理速度较慢的服务来说起到缓冲作用消峰作用:对于短时间偶现的极端流量,对后端的服务可以启动保护作用数据流处理:集成 spark 做实时数据流处理二、Kafka 拓扑图(多副本机制)
由上图我们可以发现 Kafka 是分布式,对于每一个分区都存在多副本,同时整个集群的管理都通过 zookeeper 管理。三、Kafka 核心组件 1. brokerKafka 服务器,负责消息存储和转发;一个 broker 就代表一个 kafka 节点。一个 broker 可以包含多个 topic。2. topic 消息类别,Kafka 按照 topic 来分类消息。3. partitiontopic 的分区,一个 topic 可以包含多个 partition,topic 消息保存在各个 partition 上;由于一个 topic 能被分到多个分区上,给 kafka 提供给了并行的处理能力,这也正是 kafka 高吞吐的原因之一。partition 物理上由多个 segment 文件组成,每个 segment 大小相等,顺序读写(这也是 kafka 比较快的原因之一,不需要随机写)。每个 Segment 数据文件以该段中最小的 offset ,文件扩展名为.log。当查找 offset 的 Message 的时候,通过二分查找快找到 Message 所处于的 Segment 中。
4. offset 消息在日志中的位置,可以理解是消息在 partition 上的偏移量,也是代表该消息的唯一序号。同时也是主从之间的需要同步的信息。
5. Producer 生产者,负责向 Kafka Broker 发消息的客户端。6. Consumer 消息消者,负责消费 Kafka Broker 中的消息。7. Consumer Group 消费者组,每个 Consumer 必须属于一个 group;(注意:一个分区只能由组内一个消费者消费,消费者组之间互不影响。)8. Zookeeper 管理 kafka 集群,负责存储了集群 broker、topic、partition 等 meta 数据存储,同时也负责 broker 故障发现,partition leader 选举,负载均衡等功能。
四、服务治理既然 Kafka 是分布式的发布/订阅系统,这样如果做的集群之间数据同步和一致性,kafka 是不是肯定不会丢消息呢?以及宕机的时候如果进行 Leader 选举呢?1. 数据同步在 Kafka 中的 Partition 有一个 leader 与多个 follower,producer 往某个 Partition 中写入数据,是只会往 leader 中写入数据,然后数据才会被复制进其他的 Replica 中。而每一个 follower 可以理解成一个消费者,定期去 leader 去拉消息。而只有数据同步了后,kafka 才会给生产者返回一个 ACK 告知消息已经存储落地了。2. ISR 在 Kafka 中,为了保证性能,Kafka 不会采用强一致性的方式来同步主从的数据。而是维护了一个:in-sync Replica 的列表,Leader 不需要等待所有 Follower 都完成同步,只要在 ISR 中的 Follower 完成数据同步就可以发送 ACK 给生产者即可认为消息同步完成。同时如果发现 ISR 里面某一个 follower 落后太多的话,就会把它剔除。具体流程如下:
上述的做法并无法保证 Kafka 一定不丢消息。虽然 Kafka 通过多副本机制中最大限度保证消息不会丢失,但是如果数据已经写入系统 page cache 中但是还没来得及刷入磁盘,此时突然机器宕机或者掉电,那消息自然而然地就会丢失。3. Kafka 故障恢复
Kafka 通过 Zookeeper 连坐集群的管理,所以这里的选举机制采用的是 Zab(zookeeper 使用)。生产者发生消息给 leader ,这个时候 leader 完成数据存储,突然发生故障,没有给 producer 返回 ack;通过 ZK 选举,其中一个 follower 成为 leader ,这个时候 producer 重新请求新的 leader,并存储数据。五、Kafka 为什么这么快 1. 顺序写磁盘 Kafka 采用了顺序写磁盘,而由于顺序写磁盘相对随机写,减少了寻地址的耗费时间。(在 Kafka 的每一个分区里面消息是有序的)2. Page CacheKafka 在 OS 系统方面使用了 Page Cache 而不是我们平常所用的 Buffer。Page Cache 其实不陌生,也不是什么新鲜事物。
我们在 linux 上查看内存的时候,经常可以看到 buff/cache,两者都是用来加速 IO 读写用的,而 cache 是作用于读,也就是说,磁盘的内容可以读到 cache 里面,这样应用程序读磁盘就非常快;而 buff 是作用于写,我们开发写磁盘都是,一般如果写入一个 buff 里面再 flush 就非常快。而 kafka 正是把这两者发挥到了极致:Kafka 虽然是 scala 写的,但是依旧在 Java 的虚拟机上运行,尽管如此,kafka 它还是尽量避开了 JVM 的限制,它利用了 Page cache 来存储,这样躲开了数据在 JVM 因为 GC 而发生的 STW。另一方面也是 Page Cache 使得它实现了零拷贝,具体下面会讲。3. 零拷贝无论是优秀的 Netty 还是其他优秀的 Java 框架,基本都在零拷贝减少了 CPU 的上下文切换和磁盘的 IO。当然 Kafka 也不例外。零拷贝的概念具体这里不作太详细的复述,大致地给大家讲一下这个概念。传统的一次应用程请求数据的过程:
这里大致可以发传统的方式发生了 4 次拷贝,2 次 DMA 和 2 次 CPU,而 CPU 发生了 4 次的切换。(DMA 简单理解就是,在进行 I/O 设备和内存的数据传输的时候,数据搬运的工作全部交给 DMA 控制器,而 CPU 不再参与任何与数据搬运相关的事情)4. 零拷贝的方式
通过优化我们可以发现,CPU 只发生了 2 次的上下文切换和 3 次数据拷贝。(linux 系统提供了系统事故调用函数“sendfile()”,这样系统调用,可以直接把内核缓冲区里的数据拷贝到 socket 缓冲区里,不再拷贝到用户态)5. 分区分段我们上面也介绍过,kafka 采取了分区的模式,而每一个分区又对应到一个物理分段,查找的时候可以根据二分查找快速定位。这样不仅提供了数据读的查询效率,也提供了并行操作的方式。6. 数据压缩 Kafka 对数据提供了:Gzip 和 Snappy 压缩协议等压缩协议,对消息结构体进行了压缩,一方面减少了带宽,也减少了数据传输的消耗。六、Kafka 安装 1. 安装 JDK 由于使用压缩包还需要自己配置环境变量,所以这里推荐直接用 yum 安装,熟悉查看目前 Java 的版本:yum -y list Java*安装你想要的版本,这里我是 1.8yum install java-1.8.0-openjdk-devel.x86_64 查看是否安装成功 Java -version2. 安装 Zookeeper 首先需要去官网下载安装包,然后解压 tar -zxvf zookeeper-3.4.9.tar.gz 要做的就是将这个文件复制一份,并命名为:zoo.cfg,然后在 zoo.cfg 中修改自己的配置即可 cp zoo_sample.cfg zoo.cfgvim zoo.cfg 主要配置解释如下:# zookeeper 内部的基本单位,单位是毫秒,这个表示一个 tickTime 为 2000 毫秒,在 zookeeper 的其他配置中,都是基于 tickTime 来做换算的 tickTime=2000# 集群中的 follower 服务器(F)与 leader 服务器(L)之间 初始连接 时能容忍的最多心跳数(tickTime 的数量)。initLimit=10#syncLimit:集群中的 follower 服务器(F)与 leader 服务器(L)之间 请求和应答 之间能容忍的最多心跳数(tickTime 的数量)syncLimit=5# 数据存放文件夹,zookeeper 运行过程中有两个数据需要存储,一个是快照数据(持久化数据)另一个是事务日志 dataDir=/tmp/zookeeper## 客户端访问端口 clientPort=2181 配置环境变量 vim ~/.bash_profileexport ZK=/usr/local/src/apache-zookeeper-3.7.0-binexport PATH=$PATH:$ZK/binexport PATH// 启动 zkServer.sh start 总结我就不全部罗列出来了,
资料获取方式
这篇 Kafka 源码解析与实战对你工作还是面试都有很大的帮助,需要这篇 PDF 版资料的朋友可以:点赞+转发+关注!添加小助理【mxt220214】即可免费获取完整资料
评论