如何理解 Linux 中的 load averages

本文深入探讨了Linux系统中负载平均值的概念,解释了其如何不仅跟踪可运行任务,还包括处于不可中断睡眠状态的任务,以及这种计算方式的历史背景和现代应用。文章分析了Linux负载平均值与其他系统的主要区别,讨论了其在现代系统中的适用性和潜在改进。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文:https://mp.weixin.qq.com/s?src=11&timestamp=1533697106&ver=1047&signature=poqrJFfcNABv4biKKpa4mZdIW7No2Wo1F5sbZL7ggoVS2GqcSqwQQ8hMulAmezT*zL*klB-eE5BeMyNuyjuIH7YgkBAN25i6*ahhEpWyxqx6vPct-Vr7q7AU0YGe-F*l&new=1

http://blog.scoutapp.com/articles/2009/07/31/understanding-load-averages

经常和 Linux 打交道的童鞋都知道,load averages 是衡量机器负载的关键指标,但是这个指标是怎样定义出来的呢?
和其他系统不同,Linux 上的 load averages 不仅追踪可运行的任务,还追踪处于不可中断睡眠状态的任务,为什么是这样呢?这篇文章就来聊聊这方面的知识。
Linux 的 load averages 是系统负载平均值,这个值将正在运行线程(任务)对于系统的需求,作为处于运行和等待状态的线程的平均数量。大多数工具会显示 1 分钟,5 分钟和 15 分钟的平均值:

$ uptime
 17:30:01 up 13 days, 20:30,  3 users,  load average: 1.66, 2.03, 2.08

$ cat /proc/loadavg
1.48 1.98 2.06 4/3587 117385

对上面的输出信息稍稍做些解释

  • 如果平均值是 0.0,说明系统处于空闲状态
  • 如果 1 分钟的平均值大于 5 分钟或者 15 分钟,说明系统负载正在增加
  • 如果 1 分钟的平均值小于 5 分钟或者 15 分钟,说明系统负载正在减小
  • 如果这些值大于 CPU 的核数,说明可能遇到了性能问题

利用这三个值,我们可以判断系统的负载是在增加还是在减小,这在实践中很有用。这三个中的任意一个拿出来也很有用,比如为云服务的自动伸缩设置阈值。不过,在缺少其他信息的情况下,单看这些值是没有意义的。比如 1 分钟的 load averages 值在 23 到 25 之间,就没有任何意义;但如果知道 CPU 核数并且知道运行的任务是计算密集型,那这个值就很有意义。

历史

最开始的时候,load averages 只显示对系统 CPU 相关的需求:运行的进程数加上等待的进程数。如 RFC 546 描述的:

TENEX load averages 是衡量 CPU 需求的指标。这个值是给定时间内可运行进程数量的平均值。例如,对于单核 CPU 系统,每小时平均 10 次意思是在该小时内可以期望看到一个进程正在运行和另外九个等待 CPU(即没有被 I/O 阻塞) 处于 ready 状态的进程。

下图是 1973 年绘制的监控图:

image

以前操作系统的代码还可以找到,下面是 TENEX) 定义的一些宏:

NRJAVS==3               ;NUMBER OF LOAD AVERAGES WE MAINTAIN
GS RJAV,NRJAVS          ;EXPONENTIAL AVERAGES OF NUMBER OF ACTIVE PROCESSES
[...]
;UPDATE RUNNABLE JOB AVERAGES

DORJAV: MOVEI 2,^D5000
        MOVEM 2,RJATIM          ;SET TIME OF NEXT UPDATE
        MOVE 4,RJTSUM           ;CURRENT INTEGRAL OF NBPROC+NGPROC
        SUBM 4,RJAVS1           ;DIFFERENCE FROM LAST UPDATE
        EXCH 4,RJAVS1
        FSC 4,233               ;FLOAT IT
        FDVR 4,[5000.0]         ;AVERAGE OVER LAST 5000 MS
[...]
;TABLE OF EXP(-T/C) FOR T = 5 SEC.

EXPFF:  EXP 0.920043902 ;C = 1 MIN
        EXP 0.983471344 ;C = 5 MIN
        EXP 0.994459811 ;C = 15 MIN

Linux 中定义的宏长下面这样(代码出处 include/linux/sched/loadavg.h):

#define EXP_1           1884            /* 1/exp(5sec/1min) as fixed-point */
#define EXP_5           2014            /* 1/exp(5sec/5min) */
#define EXP_15          2037            /* 1/exp(5sec/15min) */

指标的三个粒度

load averages 有 1 分钟,5 分钟,15 分钟三个粒度的结果。不过事实上,他们并不是真正的平均值,统计的粒度也不是 1,5,15 分钟。从上面的代码中可以看出,1,5 和 15 都是常量,用于计算指数衰减的 5 秒平均移动和。由此算出的 1 分钟,5 分钟和 15 分钟的 load averages 所反应的负载远远超过 1,5,15 分钟。

假设在一个空闲的系统上,开启一个单线程来跑 CPU 密集任务,60 秒后 1 分钟的 load averages 是多少呢?如果 load averages 按普通平均值来算,这个值将是 1.0. 下面是一个绘制成图的实验结果:

image

在上面的实验中,所谓的“1 分钟 load averages”在一分钟内只能达到 0.62 左右。

Linux 不可中断任务

Linux 中刚引入 load averages 时,和其他系统一样将其作为衡量 CPU 需求的指标,后来将其更改为不仅包含可运行任务,还包含处于不可中断状态的任务(TASK_UNINTERRUPTIBLE 或 nr_uninterruptible)。这种状态由希望避免信号中断的代码使用,其中包括阻塞在磁盘 I/O 和一些锁上的任务。在pstop的输出中,这种状态被标志为“D”。ps(1) 的 man page 将其称为"不可中断睡眠状态(通常被 IO 阻塞)"

# man ps
.....
PROCESS STATE CODES
       Here are the different values that the s, stat and state output specifiers (header "STAT" or "S") will display to describe the
       state of a process:

               D    uninterruptible sleep (usually IO)

...

为什么 Linux 中的 load averages 要加入不可中断状态呢,而不是像其他系统一样只计算 CPU 的需求呢?

加入不可中断的起源

在 oldlinux.org 找到了一封 1993 年的邮件:

From: Matthias Urlichs <urlichs@smurf.sub.org>
Subject: Load average broken ?
Date: Fri, 29 Oct 1993 11:37:23 +0200


The kernel only counts "runnable" processes when computing the load average.
I don't like that; the problem is that processes which are swapping or
waiting on "fast", i.e. noninterruptible, I/O, also consume resources.

It seems somewhat nonintuitive that the load average goes down when you
replace your fast swap disk with a slow swap disk...

Anyway, the following patch seems to make the load average much more
consistent WRT the subjective speed of the system. And, most important, the
load is still zero when nobody is doing anything. ;-)

--- kernel/sched.c.orig Fri Oct 29 10:31:11 1993
+++ kernel/sched.c  Fri Oct 29 10:32:51 1993
@@ -414,7 +414,9 @@
    unsigned long nr = 0;

    for(p = &LAST_TASK; p > &FIRST_TASK; --p)
-       if (*p && (*p)->state == TASK_RUNNING)
+       if (*p && ((*p)->state == TASK_RUNNING) ||
+                  (*p)->state == TASK_UNINTERRUPTIBLE) ||
+                  (*p)->state == TASK_SWAPPING))
            nr += FIXED_1;
    return nr;
 }
--
Matthias Urlichs        \ XLink-POP N|rnberg   | EMail: urlichs@smurf.sub.org
Schleiermacherstra_e 12  \  Unix+Linux+Mac     | Phone: ...please use email.
90491 N|rnberg (Germany)  \   Consulting+Networking+Programming+etc'ing      42

看到这么久之前的想法还是很令人惊叹的。

这也证明了 Linux 改变 load averages 的含义,使其不仅体现对 CPU 的需要,是有意的,这让 load averages 从“CPU 负载均衡”变成了“系统负载均衡”。

邮件中举交换磁盘速度慢的例子是有道理的:通过降低系统性能,系统需求(运行和排队的进程数)应该增加;但是如果仅仅根据 CPU 运行状态,那么 load averages 值应该会下降。Matthias 认为这是不直观的,所以修改了代码。

现代系统的不可中断

但是难道不会出现磁盘 I/O 不能解释 Linux load averages 过高的情况吗?这种情况是会出现的,这是因为在现代 Linux(4.12)版本中,有将近 400 处代码设置了TASK_UNINTERRUPTIBLE状态,包括一些锁原语中。其中部分代码可能不需要统计在 load averages 中。

既然TASK_UNINTERRUPTIBLE在更多的地方被用到,那么是否应该将 load averages 改成只统计 CPU 和磁盘需求呢?Linux 调度程序的维护者 Peter Zijstra 有一个想法:将TASK_UNINTERRUPTIBLE替换成task_struct->in_iowait,这样 load averages 就更贴近磁盘 I/O 的需求。这样又引入了另外一个问题,我们到底想要从 load averages 中得到什么?我们是需要用线程对系统的需求来衡量负载,还是只通过物理资源的使用情况来衡量负载呢?如果是前者的话,那么应该包含等待不间断锁的线程,因为这些线程并没有闲置。所以也许 Linux 的 load averages 已经按我们需要的方式工作了。

理解 Linux 的 load averages

也许真正的问题在于“load averages”这个词和“I/O”一样含糊不清。到底是哪种 I/O 呢?是磁盘 I/O?文件系统 I/O?还是网络 I/O。类似的,到底是哪种 load averages 呢?是 CPU 平均负载?还是系统平均负载?下面做一个总结吧:

  • 在 Linux 上,load averages 的真实含义是“系统平均负载”,即对整个系统,测量正在工作并等待工作的线程数(CPU,磁盘,不可中断锁)。换句话说,这种方式测量的是不完全空闲的线程数量。这种方式的优势在于包括了对不同资源的需求。
  • 在其他的系统上,load averages 的含义是“CPU 平均负载”,这组值用于测量正在占有 CPU 执行权的线程数量加上等待 CPU 的线程数量。

还有另一种可能的类型:“物理资源负载平均值”,其中包括仅用于物理资源(CPU+ 磁盘)的负载。

更精确的测量数据

当 Linux 的 load averages 值增加时,可以判断任务对系统资源(CPU,磁盘和锁)有了更高的需求,但是到底是对哪种资源的需求增长了呢?这时可以用其他的指标来进行判断。比如,CPU 资源有如下指标:

  • 单个 CPU 使用率:可以用命令mpstat -P ALL 1查看
  • 每个进程的 CPU 使用率:可用命令toppidstat 1查看
  • 每个线程运行队列(调度程序)延迟:可用命令perf sched查看,也可以查看文件/proc/PID/schedstats
  • CPU 运行队列延迟:可用命令perf sched查看,也可以查看文件/proc/schedstat
  • CPU 运行队列长度:可用vmstat 1命令查看。

上面提供的指标中,前两个用来衡量使用率,后三个用来度量系统饱和度。利用率指标对于衡量工作负载很有用,而饱和度指标可用来识别性能问题。衡量 CPU 饱和度的最佳指标是运行队列(或调度程序)的延迟,延迟是指任务或者线程处于可运行状态,但必须等待 CPU 的时间。通过这样的指标可以用来衡量性能问题的严重程度,比如线程等待调度的时间在运行时间中占的百分比。通过观察运行队列长度可以很方便判断是否存在问题,但比较难定位到问题产生的原因。

schedstats功能在 Linux 4.6 中成为内核可调参数(sysctl.kernel.sched_schedstats),默认是关闭的。

尽管有更明确的指标,但并不意味着 load averages 是无用的。这组指标已经成功用于云计算微服务的扩展策略,微服务根据不同的负载值做出反应。有了这些判断的依据,即使在自动扩容时犯错也保险多了:扩容实例会花更多的钱,不扩容则会损失用户。如果扩容太多,后来调查一下纠正就是了。

总结

在 1993 年,一位 Linux 工程师发现了一个非直观的 load averages 情况,于是提交了三行代码的补丁将 load averages 的含义由“CPU 负载平均值”变成了“系统负载平均值”。这次的变动在统计中包括了不可中断状态下的任务,所以 load averages 值不仅反映了对 CPU 的需求,还反映了对磁盘资源的需求。系统平均负载计算正在工作和等待工作的线程的数量,并且统计 1 分钟,5 分钟,15 分钟指数衰减的移动总和平均值。通过这三个值,能够知道系统的负载是在增加还是在减小。

Linux 中对不可中断状态的使用越来越多,现在已经包括了不可中断的锁原语。如果需要衡量处于运行状态和等待状态的线程对于系统的需求,那么 load averages 依然是很好的指标。

最后引用 kernel/sched/loadavg.c 头部的注释来结束吧。

  • This file contains the magic bits required to compute the global loadavg
  • figure. Its a silly number but people think its important. We go through
  • great pains to make it work on big machines and tickless kernels.

<think>好的,我现在需要解决用户遇到的编译错误,具体是未知类型名'__kernel_long_t'和 '__kernel_ulong_t'出现在include/linux/sysinfo.h文件中。首先,我得分析这个错误的原因。用户可能是在编译某个项目时遇到了这个问题,特别是在包含Linux内核头文件的时候。这两个类型 '__kernel_long_t'和'__kernel_ulong_t'应该是内核内部定义的类型。如果编译器提示找不到它们的定义,可能是因为头文件的包含路径不正确,或者内核头文件版本与当前编译环境不兼容。接下来,我需要考虑可能的原因。首先,检查是否安装了正确版本的Linux内核头文件。如果用户使用的是较旧的内核版本,而项目需要更新的头文件,或者反之,都可能导致类型定义缺失。此外,交叉编译环境中的架构配置错误也可能引发此类问题,比如目标架构和头文件不匹配。另一个可能性是头文件依赖顺序的问题。某些头文件可能需要在其他头文件之前被包含,或者缺少必要的宏定义,比如__KERNEL__。例如,内核头文件可能通过条件编译来包含特定的类型定义,如果未定义相关宏,这些类型就不会被声明。然后,我需要想解决办法。首先建议用户更新内核头文件到与当前内核版本匹配的版本。如果已经是最新版本,可能需要检查头文件的安装完整性,比如使用包管理器重新安装。此外,检查编译环境中的架构设置是否正确,确保使用的头文件与目标平台一致。如果问题出在宏定义上,用户可能需要在内核模块编译时定义__KERNEL__宏,或者在包含相关头文件之前定义它。不过,这需要谨慎处理,因为随意定义内核宏可能引入其他问题。另外,用户可能需要检查项目中是否有自定义的类型定义与内核头文件冲突,导致原类型未被正确包含。这种情况下,调整头文件包含顺序或重命名自定义类型可以解决问题。 最后,如果所有方法都无效,建议用户查看具体的编译日志,定位到出错的代码行,进一步分析缺少的类型是在哪个头文件中定义的,从而针对性地解决依赖问题。</think>### 编译错误 `unknown type name '__kernel_long_t'` 的解决方案 #### 问题分析 该错误通常出现在编译涉及Linux内核头文件(如`sysinfo.h`)的代码时,原因可能包括: 1. **内核头文件版本不匹配**:当前编译环境使用的内核头文件版本与代码依赖的版本不一致[^1]。 2. **缺少必要的宏定义**:如`__KERNEL__`未定义,导致部分内核专用类型未激活[^2]。 3. **交叉编译配置错误**:目标架构的头文件未正确安装(如ARM头文件用于x86平台)。 --- #### 解决步骤 ##### 1. 确认内核头文件版本 ```bash # 查看当前内核版本 uname -r # 检查已安装的内核头文件版本 apt list --installed | grep linux-headers # Debian/Ubuntu dnf list installed | grep kernel-headers # RHEL/CentOS ``` - 若版本不匹配,需安装对应版本的头文件: ```bash sudo apt install linux-headers-$(uname -r) # Debian/Ubuntu sudo dnf install kernel-headers-$(uname -r) # RHEL/CentOS ``` ##### 2. 添加宏定义 在编译命令中显式定义`__KERNEL__`: ```bash gcc -D__KERNEL__ -I/path/to/kernel/headers your_code.c ``` 或在代码开头添加: ```c #define __KERNEL__ #include <linux/sysinfo.h> ``` ##### 3. 检查交叉编译配置 - 确认交叉编译工具链的头文件路径包含目标架构的类型定义(如`asm-generic/types.h`)。 - 示例路径:`/usr/arm-linux-gnueabi/include/linux/types.h` ##### 4. 手动添加类型定义(临时方案) 若问题仍未解决,可在代码中手动添加类型声明: ```c #if !defined(__kernel_long_t) typedef long __kernel_long_t; typedef unsigned long __kernel_ulong_t; #endif ``` --- #### 验证方法 通过预处理器检查宏展开结果: ```bash gcc -E -dD your_code.c | grep '__kernel_long_t' ``` 若输出中包含类型定义,则配置成功。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值