性能分析之Linux系统平均负载案例分析

网友投稿 832 2022-05-29

前言

准备工作

测试环境

工具介绍

工具安装

其它工作

前言

准备工作

测试环境

工具介绍

工具安装

其它工作

案例分析

场景一:CPU密集型进程

场景二:I/O 密集型进程场景

场景三:大量进程

小结

前言

在上文性能基础之理解linux系统平均负载和CPU使用率中,我们详细介绍了 Linux 系统平均负载的相关概念,本文我们来做几个案例分析,以达到加深理解。

准备工作

测试环境

操作系统:CentOS 7.2 双核

监控工具:iotop、htop、top、uptime、sysstat

压测工具:stress

# 获得物理cpu核心的数量 [zzw@7dgroup2 ~]$ lscpu -p | egrep -v '^#' | wc -l 2 # 获取逻辑cpu数量(包括超线程逻辑cpu数量) [zzw@7dgroup2 ~]$ lscpu -p | egrep -v '^#' | sort -u -t, -k 2,4 | wc -l 1

工具介绍

iotop 是一个用来监视磁盘 I/O 使用状况的 top 类工具

htop 是一款运行于 Linux 系统监控与进程管理软件,用于取代 Linux 下传统的 top。与 top 只提供最消耗资源的进程列表不同,htop 提供所有进程的列表,并且使用彩色标识出处理器、swap 和内存状态。

stress 是一个 Linux 系统压力测试工具,一个 Posix 系统下生成Cpu/Menory/IO/Disk 负载的工具。

sysstat 包含了常用的 Linux 性能工具,用来监控和分析系统命令。

工具安装

# 安装stress sudo yum install -y epel-release sudo yum install -y stress # 安装iotop sudo yum install -y iotop # 安装htop sudo yum install -y htop # 安装sysstat sudo yum install -y sysstat

其它工作

我们打开五个终端,登录到同一台 Linux 机器中。

终端一:stress 模拟 Linux 压测场景

终端二:top 监控进程状况

终端三:iotop 监控进程 I/O 使用状况

终端四:htop 监控进程详细状况

终端五:mpstat 监控系统 iowait 详细状况

案例分析

上面所有准备工作都已经完成了,我们首先使用 uptime 命令看下当前 Linux 的平均负载情况

[zzw@7dgroup2 ~]$ uptime 20:12:34 up 148 days, 3:09, 7 users, load average: 0.06, 0.10, 0.13

场景一:CPU密集型进程

首先,我们在终端一运行 stress 命令,模拟一个 CPU 使用率 100% 的场景。

# 模拟一个CPU使用率100%的场景。 [zzw@7dgroup2 ~]$ stress --cpu 1 --timeout 600 stress: info: [2395] dispatching hogs: 1 cpu, 0 io, 0 vm, 0 hdd

在终端二查看当前 CPU 使用率及平均负载情况,我们可以看到1分钟的平均负载已经慢慢增加到 1.11,而其中一个CPU1 User使用率已到达 72%。

在终端五我们发现系统的 iowait 几乎为 0。这说明,平均负载的升高正是由于 CPU User使用率升高导致的。这个罪魁祸首正是 PID 为 9717 的 stress 进程。

在终端四上通过 htop 我们也可以很直观了解当前的负载情况,此处我们看到 CPU User使用率颜色是绿色偏高。

场景二:I/O 密集型进程场景

我们继续在终端一运行 stress 命令,模拟 I/O 压力,即不停的执行 sync

# 模拟 I/O 压力,不停的执行 sync [zzw@7dgroup2 ~]$ stress -i 1 --timeout 600 stress: info: [11041] dispatching hogs: 0 cpu, 1 io, 0 vm, 0 hdd

在终端二查看当前 CPU 使用率及平均负载情况,我们可以看到1分钟的平均负载已经慢慢增加到 1.25,而CPU0 System使用率为 68%

在终端五,我们发现两个CPU 都出现了 iowait。这说明,系统平均负载升高是由于 iowait 升高造成的。

那么到底是哪个进程?在终端三上我们通过 iotop 发现有两个进程在大量执行 IO 写操作,结合 top S列(进程状态代码)使用情况(R和D,即可运行状态和不可中断状态)我们可以发现还是 PID 为 19241 的 stress 进程引起的。

如下图,当我们停止 stress 进程后的状况。

通过终端四的 htop 我们也可以很直观了解当前的负载情况,此处我们看到 CPU 使用率颜色是红色偏高。

场景三:大量进程

当系统中运行的进程数超过 CPU 运行能力时,就会出现等待 CPU 的进程。此处,我们还是使用 stress 模拟 4 个进程。

[zzw@7dgroup2 ~]$ stress -c 4 --timeout 600 stress: info: [13473] dispatching hogs: 4 cpu, 0 io, 0 vm, 0 hdd

由于系统只有 2 个 CPU,明显比 4 个进程要少得多,因此系统 CPU 处于严重过载状态,平均负载高达

4.30

进一步查看运行队列的长度(等待运行的进程数),可以看出,stress 进程们在疯狂的争夺 2 个CPU,这就导致出现运行队列过大,这些超出 CPU 计算能力的进程,最终导致系统过载。

性能分析之Linux系统平均负载案例分析

以下是使用 vmstat 命令。

在终端四上通过 htop 我们也可以很直观了解当前的负载情况,此处我们看到 CPU User使用率颜色是绿色偏高。

小结

平均负载提供了一个快速查看系统整体性能的手段,反映了系统的整体负载状况。但并不能跟CPU使用率并不一定完全对应。比如:

CPU 密集型进程,使用大量 CPU 会导致平均负载升高,这时候两者是一致的。

I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高。

大量等待 CPU 的进程调度也会导致平均负载很高,此时的 CPU 使用率也会比较高

另外,htop 根据不同类型的负载加以颜色区别(F2可以自定义)。比如 CPU 密集应用,它的负载颜色是绿色偏高,iowait 的操作,它的颜色是红色偏高。

最后附一张经典性能分析思路图:

简单概况,即操作系统(CPU/IO/Mem/Net)->进程->线程->堆栈->代码,如果 CPU 和 I/O 同时出现高的情况,先看 I/O。

IoT Linux 云性能测试服务 CPTS 任务调度

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:11.11上云嘉年华,华为云数据库助力客户备战业务高峰
下一篇:一篇文章搞懂数据仓库:三范式与反范式
相关文章