首发于 开源小站

Linux CFS调度器

一直没有写过关于Linux内核调度器的内容,这几天被问起,简单的讲了讲,收到一堆challenge,这次决定做一个通篇总结方便自己整理思路。
要说Linux2.4和2.6最大的差异就在于CFS调度器的引入。CFS是 Completely Fair Scheduler 的缩写。不过讲真话,个人并不完全认同“完全公平”调度是这个算法的本意,如何裁决资源抢占(preempt,字面上是优先权)才是这个调度器的本意。

对于时分多任务操作系统来说,可以理解为调度器维护着一个任务池,确定某一时刻CPU到底应该执行哪个任务。简单粗暴一点的调度器往往就是一个round robin,也就是分配相同的时间间隔,大家简单轮流使用CPU。很显然,这种调度才是最公平的,但政治正确的“完全公平”无法满足复杂场景下的调度,于是就有了本文中的CFS调度模型。

至于调度,本质上是CPU运行时间片(epoch)管理,CFS的模型主要的改进是在round robin采用的真实运行时间片的基础上实现了加权出了一个虚拟运行时间的概念vruntime。每个线程(这里理解为系统调度的最小单位,下同)都有一个vruntime值,而不同的权重即该线程的优先级,具体算法为:

vruntime = 权重占比 * \sum调度到的时间片长度 = \frac{cpu.share}{cpu.share_{default}} \sum runtime

这里的权重比是nice 0 的权重和线程权重的比值,nice 0即为系统默认的线程权限,该权重默认为1024。粗暴的理解为在默认条件下,vruntime就等于该线程的实际运行时间。具体来说可以在cgroup中的键值cpu.shares找到这个值,调整这个值可以改变vruntime的计算权重。而既然提到了cgroup,cgroup既然是嵌套的,这个值自然必须嵌套加权。

[root@localhost proc]# cat /sys/fs/cgroup/cpu/cpu.shares
1024

得到了这个vruntime之后,系统将会根据每个线程的vruntime排序(实际上是基于红黑树算法,这里不展开),vruntime最小的线程则会最早获得调度。而一旦vruntime的次序发生变化,系统将尝试触发下一次调度。也就是说调度器尽可能的保证所有线程的vruntime都一致,而权重高的线程vruntime提升的慢,容易被优先调度;权重低,同样的时间上vruntime上升的快,反而容易被轮空。一个进程的vruntime可以通过/proc/<PID>/sched中的se.vruntime选项查看

[root@localhost 1352]# grep vruntime /proc/1352/sched
se.vruntime : 1258213807.999425

这个时候,有个比较典型的例子就是当系统中存在大量vruntime相似的线程之后,类似多米诺效应,线程调度将会被过于频繁的触发,这明显不合理!于是就如何定义“vruntime触发调度”时,CFS引入了一个阈值,即如果前后两个线程vruntime保持在一个阈值之内,系统不会触发调度。而这个阈值大小就是最小的调度时间片。
vruntime > min(vruntime_{others}) + threshold

此外,CFS本质上是CPU运行时间导向的调度,这就有了另一个规则:对于sleep/IO这类的操作,由于相对来说并不占用过多资源,vruntime并不会被马上结算,仍会保持最初的vruntime。 跟到这里,你可能马上出现了一个头脑实验:一个线程A,初始值小但一直sleep,所以vruntime始终不增长;线程B,vruntime初始较大重始终排队等待,这种策略就变得不可理喻了。 所以系统在该线程被重新唤醒之后会重新计算vruntime,vruntime将取当期线程的vruntime和当前系统内最小vruntime-阈值这两个值中的最大值。也就是说如果当前系统中有两个及以上线程,当sleep/IO线程被唤醒之后,无论如何该线程将无法获得第一优先调度,最好的情况也要等当前最小vruntime接受调度之后再次触发调度。

vruntime' = max(vruntime, min(vruntime_{others}) -threshold)

另外,在cgroup的目录下还有两个跟调度有关的设定:cpu.cfs_quota_us,cpu.cfs_period_us。 这两个值确定的该线程得到调度后CPU时间的占空比。cpu.cfs_period_us是得到调度的周期,而cpu.cfs_quota_us是在这个调度周期内绝对CPU时常,单位都是微秒(us)。

SystemUtilization = \frac{quota}{(period*CPUNumbers)}

总结一下,如果用上下文切换的方式评价调度器的差异性:

  • 更多的线程分配到更少数量的CPU core上(不区分物理core和逻辑core),上下文切换的次数会增多。如果各个线程的优先级一致,足够多的线程分配最终的结果就是线程的切换频率等于vruntime阈值。
  • 不同的优先级调度只在需要多线程切换时才有效,即便系统中只有一个优先级很低的线程,系统仍有可能达到full utilization(满负载)。
  • CPU share的方式采用了占空比来控制cpu的utilization,跟上下文切换次数无关。

--原文发布于2018/01/29


--update 2020/10/30 回答网友@quentin zhao的提问

请问对于sleep/IO这类的操作不会马上被调度有什么解决办法吗?只能改调度算法吗?


取决于不同的目的,目前对于调度延时的方法可以说是多种多样啦,简单介绍个几种吧:

  1. 调整线程优先级。本文其实探讨了很多cpu.share/cpu.cfs_quota_us之类的设置其实都是服务于这个方法的。简单、容易实现起效最快,但并不能从根本上解决问题。
  2. 资源隔离、资源池化技术。主要应用在服务器线上应用,即为重要的几个app或者说进程划分属于它自己独占的资源配额。通过逻辑上的资源隔离确保CPU上的任务不会因为CPU资源调度而被中断。甚至某些极端的还会做CPU中断处理绑定(cpu affinity + IRQ affinity)。缺点这样的方式是以整个系统的计算密度和容量为代价的,运营成本非常高。
  3. 轻量级线程(比如协程)、边缘触发、用户态迁移。这是一系列技术的软件实现,旨在将原先应该由kernel调度或者可能导致上下文切换的系统调用降低为用户态自由选择调度的方式。举几个例子的话就是DPDK/SPDK这种绕开kernel直接一个烟囱到用户态的玩法。这类实现都需要重新开发,而且本质上需要改变用户行为,属于“另起炉灶”的方法。
  4. 如果单纯只是需要低时延的环境,且调整优先级还不能满足的话。有个选项就是实时操作系统了。其实Linux内核可以实现实时操作系统,但大多数的发行版并不默认提供,需要启用的话必须重新编译内核。除此之外,不同的行业也有自己专属的实时操作系统,只是不被传统上的“IT行业”提及罢了。

编辑于 2020-10-30 18:33

文章被以下专栏收录