带你探索 CPU 调度的奥秘
摘要:本文将会从最基础的调度算法说起,逐个分析各种主流调度算法的原理,带大家一起探索 CPU 调度的奥秘。
本文分享自华为云社区《探索CPU的调度原理》,作者:元闰子。
前言
软件工程师们总习惯把 OS(Operating System,操作系统)当成是一个非常值得信赖的管家,我们只管把程序托管到 OS 上运行,却很少深入了解操作系统的运行原理。确实,OS 作为一个通用的软件系统,在大多数的场景下都表现得足够的优秀。但仍会有一些特殊的场景,需要我们对 OS 进行各项调优,才能让业务系统更高效地完成任务。这就要求我们必须深入了解 OS 的原理,不仅仅只会使唤这个管家,还能懂得如何让管家做得更好。
OS 是一个非常庞大的软件系统,本文主要探索其中的冰山一角:CPU 的调度原理。
说起 CPU 的调度原理,很多人的第一反应是基于时间片的调度,也即每个进程都有占用 CPU 运行的时间片,时间片用完之后,就让出 CPU 给其他进程。至于 OS 是如何判断一个时间片是否用完的、如何切换到另一个进程等等更深层的原理,了解的人似乎并不多。
其实,基于时间片的调度只是众多 CPU 的调度算法的一类,本文将会从最基础的调度算法说起,逐个分析各种主流调度算法的原理,带大家一起探索 CPU 调度的奥秘。
CPU 的上下文切换
在探索 CPU 调度原理之前,我们先了解一下 CPU 的上下文切换,它是 CPU 调度的基础。
如今的 OS 几乎都支持"同时"运行远大于 CPU 数量的任务,OS 会将 CPU 轮流分配给它们使用。这就要求 OS 必须知道从哪里加载任务,以及加载后从哪里开始运行,而这些信息都保存在 CPU 的寄存器中,其中即将执行的下一条指令的地址被保存在程序计数器(PC)这一特殊寄存器上。我们将寄存器的这些信息称为 CPU 的上下文,也叫硬件上下文。
OS 在切换运行任务时,将上一任务的上下文保存下来,并将即将运行的任务的上下文加载到 CPU 寄存器上的这一动作,被称为 CPU 上下文切换。
CPU 上下文属于进程上下文的一部分,我们常说的进程上下文由如下两部分组成:
用户级上下文:包含进程的运行时堆栈、数据块、代码块等信息。
系统级上下文:包含进程标识信息、进程现场信息(CPU 上下文)、进程控制信息等信息。
这涉及到两个问题:(1)上一任务的 CPU 上下文如何保存下来?(2)什么时候执行上下文切换?
问题 1: 上一任务的 CPU 上下文如何保存下来?
CPU 上下文会被保存在进程的内核空间(kernel space)上。OS 在给每个进程分配虚拟内存空间时,会分配一个内核空间,这部分内存只能由内核代码访问。OS 在切换 CPU 上下文前,会先将当前 CPU 的通用寄存器、PC 等进程现场信息保存在进程的内核空间上,待下次切换时,再取出重新装载到 CPU 上,以恢复任务的运行。
问题 2: 什么时候执行上下文切换?
OS 要想进行任务上下文切换,必须占用 CPU 来执行切换逻辑。然而,用户程序运行的过程中,CPU 已经被用户程序所占用,也即 OS 在此刻并未处于运行状态,自然也无法执行上下文切换。针对该问题,有两种解决策略,协作式策略与抢占式策略。
协作式策略依赖用户程序主动让出 CPU,比如执行系统调用(System Call)或者出现除零等异常。但该策略并不靠谱,如果用户程序没有主动让出 CPU,甚至是恶意死循环,那么该程序将会一直占用 CPU,唯一的恢复手段就是重启系统了。
抢占式策略则依赖硬件的定时中断机制(Timer Interrupt),OS 会在初始化时向硬件注册中断处理回调(Interrupt Handler)。当硬件产生中断时,硬件会将 CPU 的处理权交给来 OS,OS 就可以在中断回调上实现 CPU 上下文的切换。
调度的衡量指标
对于一种 CPU 调度算法的好坏,一般都通过如下两个指标来进行衡量:
周转时间(turnaround time),指从任务到达至任务完成之间的时间,即 T_{turnaround}=T_{completiong}-T_{arrival}Tturnaround=Tcompletiong−Tarrival
响应时间(response time),指从任务到达至任务首次被调度的时间,即 T_{response}=T_{firstrun}-T_{arrival}Tresponse=Tfirstrun−Tarrival
两个指标从某种程度上是对立的,要求高的平均周转时间,必然会降低平均响应时间。具体追求哪种指标与任务类型有关,比如程序编译类的任务,要求周转时间要小,尽可能快的完成编译;用户交互类的任务,则要求响应时间要小,避免影响用户体验。
工作负载假设
OS 上的工作负载(也即各类任务运行的状况)总是千变万化的,为了更好的理解各类 CPU 调度算法原理,我们先对工作负载进行来如下几种假设:
假设 1:所有任务都运行时长都相同。
假设 2:所有任务的开始时间都是相同的
假设 3:一旦任务开始,就会一直运行,直至任务完成。
假设 4:所有任务只使用 CPU 资源(比如不产生 I/O 操作)。
假设 5:预先知道所有任务的运行时长。
准备工作已经做好,下面我们开始进入 CPU 调度算法的奇妙世界。
FIFO:先进先出
FIFO(First In First Out,先进先出)调度算法以原理简单,容易实现著称,它先调度首先到达的任务直至结束,然后再调度下一个任务,以此类推。如果有多个任务同时到达,则随机选一个。
在我们假设的工作负载状况下,FIFO 效率良好。比如有 A、B、C 三个任务满足上述所有负载假设,每个任务运行时长为 10s,在 t=0 时刻到达,那么任务调度情况是这样的:
根据 FIFO 的调度原理,A、B、C 分别在 10、20、30 时刻完成任务,平均周转时间为 20s( \frac {10+20+30}{3}310+20+30),效果很好。
然而现实总是残酷的,如果假设 1 被打破,比如 A 的运行时间变成 100s,B 和 C 的还是 10s,那么调度情况是这样的:
根据 FIFO 的调度原理,由于 A 的运行时间过长,B 和 C 长时间得不到调度,导致平均周转时间恶化为 110( \frac {100+110+120}{3}3100+110+120)。
因此,FIFO 调度策略在任务运行时间差异较大的场景下,容易出现任务饿死的问题!
针对这个问题,如果运行时间较短的 B 和 C 先被调度,问题就可以解决了,这正是 SJF 调度算法的思想。
SJF:最短任务优先
SJF(Shortest Job First,最短任务优先)从相同到达时间的多个任务中选取运行时长最短的一个任务进行调度,接着再调度第二短的任务,以此类推。
针对上一节的工作负载,使用 SJF 进行调度的情况如下,周转时间变成了 50s( \frac {10+20+120}{3}310+20+120),相比 FIFO 的 110s,有了 2 倍多的提升。
让我们继续打破假设 2,A 在 t=0 时刻,B 和 C 则在 t=10 时刻到达,那么调度情况会变成这样:
因为任务 B 和 C 比 A 后到,它们不得不一直等待 A 运行结束后才有机会调度,即使 A 需要长时间运行。周转时间恶化为 103.33s(\frac {100+(110-10)+(120-10)}{3}3100+(110−10)+(120−10)),再次出现任务饿死的问题!
STCF:最短时间完成优先
为了解决 SJF 的任务饿死问题,我们需要打破假设 3,也即任务在运行过程中是允许被打断的。如果 B 和 C 在到达时就立即被调度,问题就解决了。这属于抢占式调度,原理就是 CPU 上下文切换一节提到的,在中断定时器到达之后,OS 完成任务 A 和 B 的上下文切换。
我们在协作式调度的 SJF 算法的基础上,加上抢占式调度算法,就演变成了 STCF 算法(Shortest Time-to-Completion First,最短时间完成优先),调度原理是当运行时长较短的任务到达时,中断当前的任务,优先调度运行时长较短的任务。
使用 STCF 算法对该工作负载进行调度的情况如下,周转时间优化为 50s(\frac {120+(20-10)+(30-10)}{3}3120+(20−10)+(30−10)),再次解决了任务饿死问题!
到目前为止,我们只关心了周转时间这一衡量指标,那么 FIFO、SJF 和 STCF 调度算法的响应时间又是多长呢?
不妨假设 A、B、C 三个任务都在 t=0 时刻到达,运行时长都是 5s,那么这三个算法的调度情况如下,平均响应时长为 5s(\frac {0+(5-0)+(10-0)}{3}30+(5−0)+(10−0)):
更糟糕的是,随着任务运行时长的增长,平均响应时长也随之增长,这对于交互类任务来说将会是灾难性的,严重影响用户体验。该问题的根源在于,当任务都同时到达且运行时长相同时,最后一个任务必须等待其他任务全部完成之后才开始调度。
为了优化响应时间,我们熟悉的基于时间片的调度出现了。
RR:基于时间片的轮询调度
RR(Round Robin,轮训)算法给每个任务分配一个时间片,当任务的时间片用完之后,调度器会中断当前任务,切换到下一个任务,以此类推。
需要注意的是,时间片的长度设置必须是中断定时器的整数倍,比如中断定时器时长为 2ms,那么任务的时间片可以设置为 2ms、4ms、6ms … 否则即使任务的时间片用完之后,定时中断没发生,OS 也无法切换任务。
现在,使用 RR 进行调度,给 A、B、C 分配一个 1s 的时间片,那么调度情况如下,平均响应时长为 1s(\frac {0+(1-0)+(2-0)}{3}30+(1−0)+(2−0)):
从 RR 的调度原理可以发现,把时间片设置得越小,平均响应时间也越小。但随着时间片的变小,任务切换的次数也随之上升,也就是上下文切换的消耗会变大。因此,时间片大小的设置是一个 trade-off 的过程,不能一味追求响应时间而忽略 CPU 上下文切换带来的消耗。
CPU 上下文切换的消耗,不只是保存和恢复寄存器所带来的消耗。程序在运行过程中,会逐渐在 CPU 各级缓存、TLB、分支预测器等硬件上建立属于自己的缓存数据。当任务被切换后,就意味着又得重来一遍缓存预热,这会带来巨大的消耗。
另外,RR 调度算法的周转时间为 14s(\frac {(13-0)+(14-0)+(15-0)}{3}3(13−0)+(14−0)+(15−0)),相比于 FIFO、SJF 和 STCF 的 10s(\frac {(5-0)+(10-0)+(15-0)}{3}3(5−0)+(10−0)+(15−0))差了不少。这也验证了之前所说的,周转时间和响应时间在某种程度上是对立的,如果想要优化周转时间,建议使用 SJF 和 STCF;如果想要优化响应时间,则建议使用 RR。
I/O 操作对调度的影响
到目前为止,我们并未考虑任何的 I/O 操作。我们知道,当触发 I/O 操作时,进程并不会占用 CPU,而是阻塞等待 I/O 操作的完成。现在让我们打破假设 4,考虑任务 A 和 B 都在 t=0 时刻到达,运行时长都是 50ms,但 A 每隔 10ms 执行一次阻塞 10ms 的 I/O 操作,而 B 没有 I/O。
如果使用 STCF 进行调度,调度的情况是这样的:
从上图看出,任务 A 和 B 的调度总时长达到了 140ms,比实际 A 和 B 运行时长总和 100ms 要大。而且 A 阻塞在 I/O 操作期间,调度器并没有切换到 B,导致了 CPU 的空转!
要解决该问题,只需使用 RR 的调度算法,给任务 A 和 B 分配 10ms 的时间片,这样当 A 阻塞在 I/O 操作时,就可以调度 B,而 B 用完时间片后,恰好 A 也从 I/O 阻塞中返回,以此类推,调度总时长优化至 100ms。
该调度方案是建立在假设 5 之上的,也即要求调度器预先知道 A 和 B 的运行时长、I/O 操作时间长等信息,才能如此充分地利用 CPU。然而,实际的情况远比这复杂,I/O 阻塞时长不会每次都一样,调度器也无法准确知道 A 和 B 的运行信息。当假设 5 也被打破时,调度器又该如何实现才能最大程度保证 CPU 利用率,以及调度的合理性呢?
接下来,我们将介绍一个能够在所有工作负载假设被打破的情况下依然表现良好,被许多现代操作系统采用的 CPU 调度算法,MLFQ。
MLFQ:多级反馈队列
MLFQ(Multi-Level Feedback Queue,多级反馈队列)调度算法的目标如下:
优化周转时间。
降低交互类任务的响应时间,提升用户体验。
从前面分析我们知道,要优化周转时间,可以优先调度运行时长短的任务(像 SJF 和 STCF 的做法);要优化响应时间,则采用类似 RR 的基于时间片的调度。然而,这两个目标看起来是矛盾的,要降低响应时间,必然会增加周转时间。
那么对 MLFQ 来说,就需要解决如下两个问题:
在不预先清楚任务的运行信息(包括运行时长、I/O 操作等)的前提下,如何权衡周转时间和响应时间?
如何从历史调度中学习,以便未来做出更好的决策?
划分任务的优先级
MLFQ 与前文介绍的几种调度算法最显著的特点就是新增了优先级队列存放不同优先级的任务,并定下了如下两个规则:
规则 1:如果 Priority(A)> Priority(B),则调度 A
规则 2:如果 Priority(A)= Priority(B),则按照 RR 算法调度 A 和 B
优先级的变化
MLFQ 必须考虑改变任务的优先级,否则根据 规则 1 和 规则 2 ,对于上图中的任务 C,在 A 和 B 运行结束之前,C 都不会获得运行的机会,导致 C 的响应时间很长。因此,可以定下了如下几个优先级变化规则:
规则 3:当一个新的任务到达时,将它放到最高优先级队列中
规则 4a:如果任务 A 运行了一个时间片都没有主动让出 CPU(比如 I/O 操作),则优先级降低一级
规则 4b:如果任务 A 在时间片用完之前,有主动让出 CPU,则优先级保持不变
规则 3 主要考虑到让新加入的任务都能得到调度机会,避免出现任务饿死的问题
规则 4a 和 4b 主要考虑到,交互类任务大都是 short-running 的,并且会频繁让出 CPU,因此为了保证响应时间,需要保持现有的优先级;而 CPU 密集型任务,往往不会太关注响应时间,因此可以降低优先级。
按照上述规则,当一个 long-running 任务 A 到达时,调度情况是这样的:
如果在任务 A 运行到 t=100 时,short-time 任务 B 到达,调度情况是这样的:
从上述调度情况可以看出,MLFQ 具备了 STCF 的优点,即可以优先完成 short-running 任务的调度,缩短了周转时间。
如果任务 A 运行到 t=100 时,交互类任务 C 到达,那么调度情况是这样的:
MLFQ 会在任务处于阻塞时按照优先级选择其他任务运行,避免 CPU 空转。因此,在上图中,当任务 C 处于 I/O 阻塞状态时,任务 A 得到了运行时间片,当任务 C 从 I/O 阻塞上返回时,A 再次挂起,以此类推。另外,因为任务 C 在时间片之内出现主动让出 CPU 的行为,C 的优先级一直保持不变,这对于交互类任务而言,有效提升了用户体验。
CPU 密集型任务饿死问题
到目前为止,MLFQ 似乎能够同时兼顾周转时间,以及交互类任务的响应时间,它真的完美了吗?
考虑如下场景,任务 A 运行到 t=100 时,交互类任务 C 和 D 同时到达,那么调度情况会是这样的:
由此可见,如果当前系统上存在很多交互类任务时,CPU 密集型任务将会存在饿死的可能!
为了解决该问题,可以设立了如下规则:
规则 5:系统运行 S 时长之后,将所有任务放到最高优先级队列上(Priority Boost)
加上该规则之后,假设设置 S 为 50ms,那么调度情况是这样的,饿死问题得到解决!
恶意任务问题
考虑如下一个恶意任务 E,为了长时间占用 CPU,任务 E 在时间片还剩 1%时故意执行 I/O 操作,并很快返回。根据规则 4b,E 将会维持在原来的最高优先级队列上,因此下次调度时仍然获得调度优先权:
为了解决该问题,我们需要将规则 4 调整为如下规则:
规则 4:给每个优先级分配一个时间片,当任务用完该优先级的时间片后,优先级降一级
应用新的规则 4 后,相同的工作负载,调度情况变成了如下所述,不再出现恶意任务 E 占用大量 CPU 的问题。
到目前为止,MLFQ 的基本原理已经介绍完,最后,我们总结下 MLFQ 最关键的 5 项规则:
规则 1:如果 Priority(A)> Priority(B),则调度 A
规则 2:如果 Priority(A)= Priority(B),则按照 RR 算法调度 A 和 B
规则 3:当一个新的任务到达时,将它放到最高优先级队列中
规则 4:给每个优先级分配一个时间片,当任务用完该优先级的时间片后,优先级降一级
规则 5:系统运行 S 时长之后,将所有任务放到最高优先级队列上(Priority Boost)
现在,再回到本节开始时提出的两个问题:
1、在不预先清楚任务的运行信息(包括运行时长、I/O 操作等)的前提下,MLFQ 如何权衡周转时间和响应时间?
在预先不清楚任务到底是 long-running 或 short-running 的情况下,MLFQ 会先假设任务属于 shrot-running 任务,如果假设正确,任务就会很快完成,周转时间和响应时间都得到优化;即使假设错误,任务的优先级也能逐渐降低,把更多的调度机会让给其他 short-running 任务。
2、MLFQ 如何从历史调度中学习,以便未来做出更好的决策?
MLFQ 主要根据任务是否有主动让出 CPU 的行为来判断其是否是交互类任务,如果是,则维持在当前的优先级,保证该任务的调度优先权,提升交互类任务的响应性。
当然,MLFQ 并非完美的调度算法,它也存在着各种问题,其中最让人困扰的就是 MLFQ 各项参数的设定,比如优先级队列的数量,时间片的长度、Priority Boost 的间隔等。这些参数并没有完美的参考值,只能根据不同的工作负载来进行设置。
比如,我们可以将低优先级队列上任务的时间片设置长一些,因为低优先级的任务往往是 CPU 密集型任务,它们不太关心响应时间,较长的时间片长能够减少上下文切换带来的消耗。
CFS:Linux 的完全公平调度
本节我们将介绍一个平时打交道最多的调度算法,Linux 系统下的 CFS(CompletelyFair Scheduler,完全公平调度)。与上一节介绍的 MLFQ 不同,CFS 并非以优化周转时间和响应时间为目标,而是希望将 CPU 公平地均分给每个任务。
当然,CFS 也提供了给进程设置优先级的功能,让用户/管理员决定哪些进程需要获得更多的调度时间。
基本原理
大部分调度算法都是基于固定时间片来进行调度,而 CFS 另辟蹊径,采用基于计数的调度方法,该技术被称为 virtual runtime。
CFS 给每个任务都维护一个 vruntime 值,每当任务被调度之后,就累加它的 vruntime。比如,当任务 A 运行了 5ms 的时间片之后,则更新为 vruntime += 5ms。CFS 在下次调度时,选择 vruntime 值最小的任务来调度,比如:
那 CFS 应该什么时候进行任务切换呢?切换得频繁些,任务的调度会更加的公平,但是上下文切换带来的消耗也越大。因此,CFS 给用户提供了个可配参数 sched_latency,让用户来决定切换的时机。CFS 将每个任务分到的时间片设置为 time_slice= sched_latency / n(n 为当前的任务数) ,以确保在 sched_latency 周期内,各任务能够均分 CPU,保证公平性。比如将 sched_latency 设置为 48ms,当前有 4 个任务 A、B、C 和 D,那么每个任务分到的时间片为 12ms;后面 C 和 D 结束之后,A 和 B 分到的时间片也更新为 24ms:
从上述原理上看,在 sched_latency 不变的情况下,随着系统任务数的增加,每个任务分到的时间片也随之减少,任务切换所带来的消耗也会增大。为了避免过多的任务切换消耗,CFS 提供了可配参数 min_granularity 来设置任务的最小时间片。比如 sched_latency 设置为 48ms,min_granularity
设置为 6ms,那么即使当前任务数有 12,每个任务数分到的时间片也是 6ms,而不是 4ms。
给任务分配权重
有时候,我们希望给系统中某个重要的业务进程多分配些时间片,而其他不重要的进程则少分配些时间片。但按照上一节介绍的基本原理,使用 CFS 调度时,每个任务都是均分 CPU 的,有没有办法可以做到这一点呢?
可以给任务分配权重,让权重高的任务更多的 CPU!
加上权重机制后,任务时间片的计算方式变成了这样:
time\_slice_{k}=\frac{weight_k}{\sum_{i=0}^{n-1}weight_{i}}*sched\_latencytime_slicek=∑i=0n−1weightiweightk∗sched_latency
比如,sched_latency 还是设置为 48ms,现有 A 和 B 两个任务,A 的权重设置为 1024,B 的权重设置为 3072,按照上述的公式,A 的时间片是 12ms,B 的时间片是 36ms。
从上一节可知,CFS 每次选取 vruntime 值最小的任务来调度,而每次调度完成后,vruntime 的计算规则为 vruntime+= runtime,因此仅仅改变时间片的计算规则不会生效,还需将 vruntime 的计算规则调整为:
vruntime_{i}=vruntime_{i}+\frac{weight_{0}}{weight_{i}}*runtime_{i}vruntimei=vruntimei+weightiweight0∗runtimei
还是前面的例子,假设 A 和 B 都没有 I/O 操作,更新 vruntime 计算规则后,调度情况如下,任务 B 比任务 A 能够分得更多的 CPU 了。
使用红黑树提升 vruntime 查找效率
CFS 每次切换任务时,都会选取 vruntime 值最小的任务来调度,因此需要它有个数据结构来存储各个任务及其 vruntime 信息。
最直观的当然就是选取一个有序列表来存储这些信息,列表按照 vruntime 排序。这样在切换任务时,CFS 只需获取列表头的任务即可,时间复杂度为 O(1)。比如当前有 10 个任务,vruntime 保存为有序链表[1, 5, 9, 10, 14, 18,17, 21, 22, 24],但是每次插入或删除任务时,时间复杂度会是 O(N),而且耗时随着任务数的增多而线性增长!
为了兼顾查询、插入、删除的效率,CFS 使用红黑树来保存任务和 vruntime 信息,这样,查询、插入、删除操作的复杂度变成了 log(N),并不会随着任务数的增多而线性增长,极大提升了效率。
另外,为了提升存储效率,CFS 在红黑树中只保存了处于 Running 状态的任务的信息。
应对 I/O 与休眠
每次都选取 vruntime 值最小的任务来调度这种策略,也会存在任务饿死的问题。考虑有 A 和 B 两个任务,时间片为 1s,起初 A 和 B 均分 CPU 轮流运行,在某次调度后,B 进入了休眠,假设休眠了 10s。等 B 醒来后,vruntime_{B}vruntimeB就会比 vruntime_{A}vruntimeA小 10s,在接下来的 10s 中,B 将会一直被调度,从而任务 A 出现了饿死现象。
为了解决该问题,CFS 规定当任务从休眠或 I/O 中返回时,该任务的 vruntime 会被设置为当前红黑树中的最小 vruntime 值。上述例子,B 从休眠中醒来后,vruntime_{B}vruntimeB会被设置为 11,因此也就不会饿死任务 A 了。
这种做法其实也存在瑕疵,如果任务的休眠时间很短,那么它醒来后依旧是优先调度,这对于其他任务来说是不公平的。
写在最后
本文花了很长的篇幅讲解了几种常见 CPU 调度算法的原理,每种算法都有各自的优缺点,并不存在一种完美的调度策略。在应用中,我们需要根据实际的工作负载,选取合适的调度算法,配置合理的调度参数,权衡周转时间和响应时间、任务公平和切换消耗。这些都应验了《Fundamentals of Software Architecture》中的那句名言:Everythingin software architecture is a trade-off.
本文中描述的调度算法都是基于单核处理器进行分析的,而多核处理器上的调度算法要比这复杂很多,比如需要考虑处理器之间共享数据同步、缓存亲和性等,但本质原理依然离不开本文所描述的几种基础调度算法。
参考
Operating Systems: Three Easy Pieces, Remzi H Arpaci-Dusseau / Andrea C Arpaci-Dusseau
计算机系统基础(三):异常、中断和输入/输出, 袁春风 南京大学
版权声明: 本文为 InfoQ 作者【华为云开发者社区】的原创文章。
原文链接:【http://xie.infoq.cn/article/c5b945049c7283da4c0d4120a】。文章转载请联系作者。
评论