写点什么

mongodb 源码实现、调优、最佳实践系列 -Mongodb 网络模块源码实现及性能调优 (一)

发布于: 2020 年 10 月 22 日
mongodb源码实现、调优、最佳实践系列-Mongodb网络模块源码实现及性能调优(一)

mongodb网络工作线程模型设计非常好,不仅非常值得数据库相关研发人员学习,中间件、分布式、高并发、服务端等相关研发人员也可以借鉴,极力推荐大家学习。

开源mongodb代码规模数百万行,本篇文章内容主要分析mongodb网络传输模块内部实现及其性能调优方法,学习网络IO处理流程,体验不同工作线程模型性能极致设计原理。另外一个目的就是引导大家快速进行百万级别规模源码阅读,做到不同大工程源码”举一反三”快速阅读的目的。

关于作者

前滴滴出行技术专家,现任OPPO文档数据库mongodb负责人,负责oppo千万级峰值TPS/十万亿级数据量文档数据库mongodb研发和运维工作,一直专注于分布式缓存、高性能服务端、数据库、中间件等相关研发。后续持续分享《MongoDB内核源码设计、性能优化、最佳运维实践》,Github账号地址:https://github.com/y123456yz

1. 如何阅读数百万级大工程mongodb内核源码

mongodb 内核源码实现、性能调优、最佳运维实践系列 - 百万级代码量 mongodb 内核源码阅读经验分享

https://xie.infoq.cn/article/7b2c1dc67de82972faac2812c

2. mongodb内核网络传输transport模块实现原理

1.5章节中,我们把transport功能模块细化拆分成了网络传输数据压缩子模块、服务入口子模块、线程模型子模块、状态机处理子模块、session会话信息子模块、数据分发子模块、套接字处理和传输管理子模块,总共七个子模块。

实际上mongodb服务层代码的底层网络IO实现依赖asio库完成,因此transport功能模块应该是7+1个子模块构成,也就是服务层代码实现由8个子模块支持。

2.1 asio网络IO库实现原理

    Asio是一个优秀网络库,依赖于boost库的部分实现,支持linux、windos、unix等多平台,mongodb基于asio库来实现网络IO及定时器处理。asio库由于为了支持多平台,在代码实现中用了很多C++的模板,同时用了很多C++的新语法特性,因此整体代码可读性相比mongodb服务层代码差很多。

服务端网络IO异步处理流程大体如下:

      1.调用socket()创建一个套接字,获取一个socket描述符。

      2.调用bind()绑定套接字,同时通过listen()来监听客户端链接,注册该socket描述符到epoll事件集列表,等待accept对应的新连接读事件到来。

3. 通过epoll_wait获取到accept对应的读事件信息,然后调用accept()来接受客户的连接,并获取一个新的链接描述符new_fd。

4. 注册新的new_fd到epoll事件集列表,当该new_fd描述符上有读事件到来,于是通过epoll_wait获取该事件,开始该fd上的数据读取。

5. 读取数据完毕后,开始内部处理,处理完后发送对应数据到客户端。如果一次write数据到内核协议栈写太多,造成协议栈写满,则添加写事件到epoll事件列表。

服务端网络IO同步方式处理流程和异步流程大同小异,少了epoll注册和epoll事件通知过程,直接同步调用accept()、recv()、send()进行IO处理。

同步IO处理方式相对比较简单,下面仅分析和mongodb服务层transport模块结合比较紧密的asio异步IO实现原理。

Mongodb服务层用到的Asio库功能中最重要的几个结构有io_context、scheduler、epoll_reactor。Asio把网络IO处理任务、状态机调度任务做为2种不同操作,分别由两个继承自operation的类结构管理,每种类型的操作也就是一个任务task。io_context、scheduler、epoll_reactor最重要的功能就是管理和调度这些task有序并且高效的运行。

2.1.1  io_context类实现及其作用

io_context上下文类是mongodb服务层和asio网络库交互的枢纽,是mongodb服务层和asio库进行operation任务交互的入口。该类负责mongodb相关任务的入队、出队,并与scheduler调度处理类配合实现各种任务的高效率运行。Mongodb服务层在实现的时候,accept新连接任务使用_acceptorIOContext这个IO上下文成员实现,数据分发及其相应回调处理由_workerIOContext上下文成员实现。

该类的几个核心接口功能如下表所示:

总结:

1.从上表的分析可以看出,和mongodb直接相关的几个接口最终都是调用schedule类的相关接口,整个实现过程参考下一节scheduler调度实现模块。

2.上表中的几个接口按照功能不同,可以分为入队型接口(poll、dispatch)和出队型接口(run_for、run、run_one_for)。

3.按照和io_context的关联性不同,可以分为accept相关io(_acceptorIOContext)处理的接口(run、stop)和新链接fd对应Io(_workerIOContext)数据分发相关处理及回调处理的接口(run_for、run_one_for、poll、dispatch)。

4. io_context上下文的上述接口,除了dispatch在某些情况下直接运行handler外,其他接口最终都会间接调用scheduler调度类接口。

2.1.2 asio调度模块scheduler实现

上一节的io_context上下文中提到mongodb操作的io上下文最终都会调用scheduler的几个核心接口,io_context只是起衔接mongodb和asio库的链接桥梁。scheduler类主要工作在于完成任务调度,该类和mongodb相关的几个主要成员变量及接口如下表:



2.1.3 operation任务队列

从前面的分析可以看出,一个任务对应一个operation类结构,asio异步实现中schduler调度的任务分为IO处理任务(accept处理、读io处理、写io处理、网络IO处理回调处理)和全局状态机任务,总共2种任务小类。

此外,asio还有一种特殊的operation,该Operastion什么也不做,只是一个特殊标记。网络IO处理任务、状态机处理任务、特殊任务这三类任务分别对应三个类结构,分别是:reactor_op、completion_handler、task_operation_,这三个类都会继承基类operation。

1. operation基类实现

operation基类实际上就是scheduler_operation类,通过typedef scheduler_operation operation指定,是其他三个任务的父类,其主要实现接口如下:

2. completion_handler状态机任务

当mongodb通过listener线程接受到一个新链接后,会生成一个状态机调度任务,然后入队到全局队列op_queue_,worker线程从全局队列获取到该任务后调度执行,从而进入状态机调度流程,在该流程中会触发epoll相关得网络IO注册及异步IO处理。一个全局状态机任务对应一个completion_handler类,该类主要成员及接口说明如下表所示:

completion_handler状态机任务类实现过程比较简单,就是初始化和运行两个接口。全局任务入队的时候有两种方式,一种是io_context::dispatch方式,另一种是io_context::post。从前面章节对这两个接口的代码分析可以看出,任务直接入队到全局队列op_queue_中,然后工作线程通过scheduler::do_wait_one从队列获取该任务执行。

注意:状态机任务入队由Listener线程(新链接到来的初始状态机任务)和工作线程(状态转换任务)共同完成,任务出队调度执行由mongodb工作线程执行,状态机具体任务内容在后面《状态机实现》章节实现。

3. 网络IO事件处理任务

网络IO事件对应的Opration任务最终由reactor_op类实现,该类主要成员及接口如下:

从reactorop类可以看出,该类的主要两个函数成员:performfunc_和complete_func。其中performfunc函数主要负责异步网络IO底层处理,complete_func用于获取到一个新链接、接收或者发送一个完整mongodb报文后的后续回调处理逻辑。

performfunc具体功能包含如下三种如下:

   1.通过epoll事件集处理底层accept获取新连接fd。

   2. fd上的数据异步接收

   3. fd上的数据异步发送

针对上面的三个网络IO处理功能,ASIO在实现的时候,分别通过三个不同的类(reactivesocketacceptopbase、reactivesocketrecv_op_base、reactivesocketsend_op_base)实现,这三个类都继承父类reactor_op。这三个类的功能总结如下表所示:

  总结:asio在实现的时候,把accept处理、数据读、数据写分开处理,都继承自公共基类reactor_op,该类由两个操作组成:底层IO操作和回调处理。其中,asio的底层IO操作最终由epoll_reactor类实现,回调操作最终由mongodb服务层指定,底层IO操作的回调映射表如下:

说明:网络IO事件处理任务实际上在状态机任务内运行,也就是状态机任务中调用asio库进行底层IO事件运行处理。   

4. 特殊任务task_operation

前面提到,ASIO库中还包含一种特殊的task_operation任务,asio通过epoll_wait获取到一批IO事件后,会添加到op_queue_全局队列,工作线程从队列取出任务有序执行。每次通过epoll_wait获取到IO事件信息后,除了添加这些读写事件对应的底层IO处理任务到全局队列外,每次还会额外生成一个特殊task_operation任务添加到队列中。

为何引入一个特殊任务的Opration?

工作线程变量全局op_queue_队列取出任务执行,如果从队列头部取出的是特殊Op操作,就会立马触发获取epoll网络事件信息,避免底层网络IO任务长时间不被处理引起的"饥饿"状态,保证状态机任务和底层IO任务都能”平衡”运行。

asio库底层处理实际上由epoll_reactor类实现,该类主要负责epoll相关异步IO实现处理,鉴于篇幅epoll reactor相关实现将在后续《mongodb内核源码实现及调优系列》相关章节详细分析。

2.2 message_compressor网络传输数据压缩子模块

网络传输数据压缩子模块主要用于减少网络带宽占用,通过CPU来换取IO消耗,也就是以更多CPU消耗来减少网络IO压力。

鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节分享。

2.3 transport_layer套接字处理及传输层管理子模块

transport_layer套接字处理及传输层管理子模块功能主要如下:

1. 套接字相关初始化处理

2. 结合asio库实现异步accept处理

3. 不同线程模型管理及初始化

    鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

2.4 session会话子模块

Session会话模块功能主要如下:

1. 负责记录HostAndPort、新连接fd信息

2. 通过和底层asio库的直接互动,实现数据的同步或者异步收发。

鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

2.5 Ticket数据分发子模块

Ticket数据分发子模块主要功能如下:

1. 调用session子模块进行底层asio库处理

2. 拆分数据接收和数据发送到两个类,分别实现。

3. 完整mongodb报文读取

4. 接收或者发送mongodb报文后的回调处理

鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

2.6 service_state_machine状态机调度子模块

service_state_machine状态机处理模块主要功能如下:

1. Mongodb网络数据处理状态转换

2. 配合状态转换逻辑把一次mongodb请求拆分为二个大的状态任务:接收一个完整长度mongodb报文、接收到一个完整报文后的后续所有处理(含报文解析、认证、引擎层处理、应答客户端等)。

3. 配合工作线程模型子模块,把步骤2的两个任务按照指定的状态转换关系进行调度运行。

鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

2.7 service_entry_point服务入口点子模块

service_entry_point服务入口点子模块主要负责如下功能:

1. 连接数控制

2. Session会话管理

3. 接收到一个完整报文后的回调处理(含报文解析、认证、引擎层处理等)

鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

2.8 service_executor服务运行子模块,即线程模型子模块

线程模型设计在数据库性能指标中起着非常重要的作用,因此本文将重点分析mongodb服务层线程模型设计,体验mongodb如何通过优秀的工作线程模型来达到多种业务场景下的性能极致表现。

service_executor线程子模块,在代码实现中,把线程模型分为两种:synchronous线程模式和adaptive线程模型。Mongodb启动的时候通过配置参数net.serviceExecutor来确定采用那种线程模式运行mongo实例,配置方式如下:

net: //同步线程模式配置
serviceExecutor: synchronous
或者 //动态线程池模式配置
net:
serviceExecutor: adaptive

2.8.1 synchronous同步线程模型(一个链接一个线程)实现原理

synchronous同步线程模型,listener线程每接收到一个链接就会创建一个线程,该链接上的所有数据读写及内部请求处理流程将一直由本线程负责,整个线程的生命周期就是这个链接的生命周期。

1.网络IO操作方式

synchronous同步线程模型实现过程比较简单,线程循循环以同步IO操作方式从fd读取数据,然后处理数据,最后返回客户端对应得数据。同步线程模型方式针对某个链接的系统调用如下图所示(mongo shell建立链接后show dbs):

2. 性能极致提升小细节

虽然synchronous线程模型比较简单,但是mongodb服务层再实现的时候针对细节做了极致的优化,主要体现在如下代码实现细节上面:

具体实现中,mongodb线程每处理16次用户请求,就让线程空闲一会儿。同时,当总的工作线程数大于cpu核数后,每次都做让出一次CPU调度。通过这两种方式,在性能测试中可以提升5%的性能,虽然提升性能不多,但是充分体现了mongodb在性能优化提升方面所做的努力。

2. 同步线程模型监控统计

可以通过如下命令获取同步线程模型方式获取当前mongodb中的链接数信息:

该监控中主要由两个字段组成:passthrough代表同步线程模式,threadsRunning表示当前进程的工作线程数。

2.8.2 adaptive异步线程模型(动态线程池)实现原理

adaptive动态线程池模型,内核实现的时候会根据当前系统的访问负载动态的调整线程数。当线程CPU工作比较频繁的时候,控制线程增加工作线程数;当线程CPU比较空闲后,本线程就会自动消耗退出。下面一起体验adaptive线程模式下,mongodb是如何做到性能极致设计的。

1. 线程池初始化

Mongodb默认初始化后,线程池线程数默认等于CPU核心数/2,主要实现如下:

从代码实现可以看出,线程池中最低线程数可以通过adaptiveServiceExecutorReservedThreads配置,如果没有配置则默认设置为CPU/2。

2. 工作线程运行时间相关的几个统计

3.6状态机调度模块中提到,一个完整的客户端请求处理可以转换为2个任务:通过asio库接收一个完整mongodb报文、接收到报文后的后续所有处理(含报文解析、认证、引擎层处理、发送数据给客户端等)。假设这两个任务对应的任务名、运行时间分别如下表所示:

客户端一次完整请求过程中,mongodb内部处理过程=task1 + task2,整个请求过程中mongodb内部消耗的时间T1+T2。

实际上如果fd上没有数据请求,则工作线程就会等待数据,等待数据的过程就相当于空闲时间,我们把这个时间定义为T3。于是一个工作线程总运行时间=内部任务处理时间+空闲等待时间,也就是线程总时间=T1+T2+T3,只是T3是无用等待时间。

3. 单个工作线程如何判断自己处于”空闲”状态

步骤2中提到,线程运行总时间=T1 + T2 +T3,其中T3是无用等待时间。如果T3的无用等待时间占比很大,则说明线程比较空闲。

Mongodb工作线程每次运行完一次task任务后,都会判断本线程的有效运行时间占比,有效运行时间占比=(T1+T2)/(T1+T2+T3),如果有效运行时间占比小于某个阀值,则该线程自动退出销毁,该阀值由adaptiveServiceExecutorIdlePctThreshold参数指定。该参数在线调整方式:

db.adminCommand( { setParameter: 1, adaptiveServiceExecutorIdlePctThreshold: 50} )

4. 如何判断线程池中工作线程“太忙”

Mongodb服务层有个专门的控制线程用于判断线程池中工作线程的压力情况,以此来决定是否在线程池中创建新的工作线程来提升性能。

控制线程每过一定时间循环检查线程池中的线程压力状态,实现原理就是简单的实时记录线程池中的线程当前运行情况,为以下两类计数:总线程数_threadsRunning、

当前正在运行task任务的线程数_threadsInUse。如果_threadsRunning=_threadsRunning,说明所有工作线程当前都在处理task任务,这时候已经没有多余线程去asio库中的全局任务队列op_queue_中取任务执行了,这时候队列中的任务就不会得到及时的执行,就会成为响应客户端请求的瓶颈点。

  1. 如何判断线程池中所有线程比较“空闲”

control控制线程会在收集线程池中所有工作线程的有效运行时间占比,如果占比小于指定配置的阀值,则代表整个线程池空闲。

前面已经说明一个线程的有效时间占比为:(T1+T2)/(T1+T2+T3),那么所有线程池中的线程总的有效时间占比计算方式如下:

所有线程的总有效时间TT1 = (线程池中工作线程1的有效时间T1+T2)  +  (线程池中工作线程2的有效时间T1+T2)  + ..... + (线程池中工作线程n的有效时间T1+T2)

所有线程总运行时间TT2 =  (线程池中工作线程1的有效时间T1+T2+T3)  +  (线程池中工作线程2的有效时间T1+T2+T3)  + ..... + (线程池中工作线程n的有效时间T1+T2+T3)

线程池中所有线程的总有效工作时间占比= TT1/TT2

6. control控制线程如何动态增加线程池中线程数

Mongodb在启动初始化的时候,会创建一个线程名为”worker-controller”的控制线程,该线程主要工作就是判断线程池中是否有充足的工作线程来处理asio库中全局队列op_queue_中的task任务,如果发现线程池比较忙,没有足够的线程来处理队列中的任务,则在线程池中动态增加线程来避免task任务在队列上排队等待。

control控制线程循环主体主要压力判断控制流程如下:

while {

#等待工作线程唤醒条件变量,最长等待stuckThreadTimeout

_scheduleCondition.wait_for(stuckThreadTimeout)



#获取线程池中所有线程最近一次运行任务的总有效时间TT1

Executing = _getThreadTimerTotal(ThreadTimer::Executing);

#获取线程池中所有线程最近一次运行任务的总运行时间TT2

Running = _getThreadTimerTotal(ThreadTimer::Running);

#线程池中所有线程的总有效工作时间占比= TT1/TT2

utilizationPct = Executing / Running;



#代表control线程太久没有进行线程池压力检查了

if(本次循环到该行代码的时间> stuckThreadTimeout阀值) {

#说明太久没做压力检查,造成工作线程不够用了

     if(_threadsInUse == _threadsRunning) {

#批量创建一批工作线程

for(; i < reservedThreads; i++)

#创建工作线程

_startWorkerThread();

}

#control线程继续下一次循环压力检查

continue;

}



#如果当前线程池中总线程数小于最小线程数配置

#则创建一批线程,保证最少工作线程数达到要求

if (threadsRunning < reservedThreads) {

while (_threadsRunning < reservedThreads) {

_startWorkerThread();

}

}



#检查上一次循环到本次循环这段时间范围内线程池中线程的工作压力

#如果压力不大,则说明无需增加工作线程数,则继续下一次循环

if (utilizationPct < idlePctThreshold) {

continue;

}



#如果发现已经有线程创建起来了,但是这些线程还没有运行任务

#这说明当前可用线程数可能足够了,我们休息sleep_for会儿在判断一下

#该循环最多持续stuckThreadTimeout时间

do {

stdx::this_thread::sleep_for();

} while ((_threadsPending.load() > 0) &&

         (sinceLastControlRound.sinceStart() < stuckThreadTimeout)



#如果tasksQueued队列中的任务数大于工作线程数,说明任务在排队了

#该扩容线程池中线程了

if (_isStarved()) {

_startWorkerThread();

}

}

7.实时serviceExecutorTaskStats线程模型统计信息

      本文分析的mongodb版本为3.6.1,其network.serviceExecutorTaskStats网络线程模型相关统计通过db.serverStatus().network.serviceExecutorTaskStats可以查看,如下图所示:

上图的几个信息功能可以分类为三大类,说明如下:

上表中各个字段的都有各自的意义,我们需要注意这些参数的以下情况:

1. threadsRunning - threadsInUse的差值越大说明线程池中线程比较空闲,差值越小说明压力越大

2. threadsPending越大,表示线程池越空闲

3. tasksQueued - totalExecuted的差值越大说明任务队列上等待执行的任务越多,说明任务积压现象越明显

4. deferredTasksQueued越大说明工作线程比较空闲,在等待客户端数据到来

5. totalTimeRunningMicros - totalTimeExecutingMicros差值越大说明越空闲

    上面三个大类中的总体反映趋势都是一样的,任何一个差值越大就说明越空闲。

在后续mongodb最新版本中,去掉了部分重复统计的字段,同时也增加了以下字段,如下图所示:

新版本增加的几个统计项实际上和3.6.1大同小异,只是把状态机任务按照不通类型进行了更加详细的统计。新版本中,更重要的一个功能就是control线程在发现线程池压力过大的时候创建新线程的触发情况也进行了统计,这样我们就可以更加直观的查看动态创建的线程是因为什么原因创建的。

8. Mongodb-3.6早期版本control线程动态调整动态增加线程缺陷1例

从步骤6中可以看出,control控制线程创建工作线程的第一个条件为:如果该线程超过stuckThreadTimeout阀值都没有做线程压力控制检查,并且线程池中线程数全部在处理任务队列中的任务,这种情况control线程一次性会创建reservedThreads个线程。reservedThreads由adaptiveServiceExecutorReservedThreads配置,如果没有配置,则采用初始值CPU/2。

那么问题来了,如果我提前通过命令行配置了这个值,并且这个值配置的非常大,例如一百万,这里岂不是要创建一百万个线程,这样会造成操作系统负载升高,更容易引起耗尽系统pid信息,这会引起严重的系统级问题。

不过,不用担心,最新版本的mongodb代码,内核代码已经做了限制,这种情况下创建的线程数变为了1,也就是这种情况只创建一个线程。

9. adaptive线程模型实时参数

动态线程模设计的时候,mongodb设计者考虑到了不通应用场景的情况,因此在核心关键点增加了实时在线参数调整设置,主要包含如下7种参数,如下表所示:

   命令行实时参数调整方法如下,以adaptiveServiceExecutorReservedThreads为例,其他参数调整方法类似:

db.adminCommand( { setParameter: 1, adaptiveServiceExecutorReservedThreads: xx} )

     Mongodb服务层的adaptive动态线程模型设计代码实现非常优秀,有很多实现细节针对不同应用场景做了极致优化,鉴于篇幅,该模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

3. 不同线程模型性能多场景PK

前面对线程模型进行了分析,下面针对Synchronous和adaptive两种模型设计进行不同场景和不同纬度的测试,总结两种模型各种的使用场景,并根据测试结果结合前面的理论分析得出不同场景下那种线程模型更合适。

测试纬度主要包括:并发数、请求快慢。本文的压力测试工具采用sysbench实现,以下是这几种纬度的名称定义:

并发数:也就是sysbench启动的线程数,默认一个线程对应一个链接

请求快慢:快请求就是请求返回比较快,sysbench的lua测试脚本通过read同一条数据模拟快请求(走存储引擎缓存),内部处理时延小于1ms。 慢请求也通过sysbench测试,测试脚本做range操作,单次操作时延几十ms。

sysbench慢操作测试原理:首先写20000万数据到库中,然后通过range操作测试,range操作比较慢,慢操作启动方式:

./sysbench --mongo-write-concern=1 --mongo-url="mongodb://xxx" --mongo-database-name=sbtest11 --oltp_table_size=600   --rand-type=pareto --report-interval=2 --max-requests=0 --max-time=200 --test=./tests/mongodb/ranges_ro.lua --oltp_range_size=2000  --num-threads=xx run

测试硬件资源,容器一台,配置如下:

1. CPU=32

2. 内存=64G

3.1 测试总结





3.6 不同线程模型总结

     根据测试数据及其前面理论章节的分析,可以得出不同业务场景结论:

1.  低并发场景(并发数小于1000),Synchronous线程模型性能更好。

2.  高并发场景(并发数大于5000),adaptive动态线程模型性能更优。

3.  adaptive动态线程模型,95分位时延和最大时延整体比Synchronous线程模型更优。

4. 并发越高,adaptive相比Synchronous性能更好。

5. 并发越高,Synchronous线程模型错误率相对更高。

6. 空闲链接越多,Synchronous线程模型性能越差。(由于时间问题,该场景未来得及测试,这是官方的数据总结)

7. 此外,短链接场景(例如PHP相关业务),adaptive模型性能会更优,因为该模型不会有链接关闭引起的线程销毁的开销。

为什么并发越高,adaptive动态线程模型性能比Synchronous会更好,而并发低的时候反而更差,原因如下:

1. Synchronous模型,一个链接一个线程,并发越高,链接数就会越多,系统负载、内存消耗等就会更高。

2. 低并发场景下,链接数不多,Synchronous模式线程数也不多,系统CPU调度几乎不会受到影响,负载也影响不大。而在adaptive场景下,由于asio库在设计的时候,任务放入全局队列op_queue_中,工作线程每次获取任务运行,都会有锁竞争,因此在低并发场景下性能不及adaptive模式。    

3.7 adaptive动态线程模式在线调优实践总结

前面3.6.2章节讲了adaptive线程模型的工作原理,其中有8个参数供我们对线程池运行状态进行调优。大体总结如下:

4. Asio网络库全局队列锁优化,性能进一步提升

前面的分析可以看出adaptive动态线程模型,为了获取全局任务队列op_queue_上的任务,需要进行全局锁竞争,这实际上是整个线程池从队列获取任务运行最大的一个瓶颈。

优化思路:我们可以通过优化队列和锁来提升整体性能,当前的队列只有一个,我们可以把单个队列调整为多个队列,每个队列一把锁,任务入队的时候散列到多个队列,通过该优化,锁竞争及排队将会得到极大的改善。

优化前队列架构:

优化后队列架构:

    如上图,把一个全局队列拆分为多个队列,任务入队的时候按照hash散列到各自的队列,工作线程获取获取任务的时候,同理通过hash的方式去对应的队列获取任务,通过这种方式减少锁竞争,同时提升整体性能。

5. 网络传输模块源码详细注释

鉴于篇幅,transport模块的详细源码实现过程将在《mongodb内核源码实现及调优系列》相关章节详细分析。

网络传输各个子模块及Asio库源码详细注释详见:

https://github.com/y123456yz/reading-and-annotate-mongodb-3.6.1/blob/master/README.md

 

本文mongodb对应的sysbench代码目录(该工具来自Percona,本文只是简单做了改动):

https://github.com/y123456yz/reading-and-annotate-mongodb-3.6.1/tree/master/mongo/sysbench-mongodb

Sysbench-mongodb对应的lua脚本目录:

https://github.com/y123456yz/reading-and-annotate-mongodb-3.6.1/tree/master/mongo/sysbench-mongodb/sysbench/tests/mongodb



发布于: 2020 年 10 月 22 日阅读数: 108
用户头像

万亿级mongodb集群性能优化实践 2020.10.13 加入

前滴滴出行专家工程师,现OPPO文档数据库mongodb负责人,负责数万亿级数据量文档数据库mongodb内核研发、性能优化及运维工作。后续持续分享《MongoDB内核源码设计、性能优化、最佳运维实践》

评论

发布
暂无评论
mongodb源码实现、调优、最佳实践系列-Mongodb网络模块源码实现及性能调优(一)