Linux CPU软中断案例一则
中断是一种异步的事件处理机制,用来提高系统的并发处理能力。中断事件发生,会触发执行中断处理程序,而中断处理程序被分为上半部和下半部这两个部分。
● 上半部对应硬中断,用来快速处理中断
● 下半部对应软中断,用来异步处理上半部未完成的工作
Linux 中的软中断包括网络收发、定时、调度、RCU锁等各种类型,我们可以查看proc 文件系统中的/proc/softirqs,观察软中断的运行情况。
在Linux中,每个CPU都对应一个软中断内核线程,名字是 ksofirqd/CPU编号。当软中断事件的频率过高时,内核线程也会因为CPU使用率过高而导致软中断处理不及时,进而引发网络收发延时,调度缓慢等性能问题。
软中断 CPU 使用率过高也是一种最常见的性能问题。
案例准备
接下来的案例基于Ubuntu18.04,也同样适用于其他的Linux系统。我使用的案例环境是这样的∶
● 机器配置∶2CPU、8GB 内存。
● 预先安装 docker、sysstat、sar、hping3、tcpdump等工具,比如 apt-get install
dockerio sysstat hping3 tcpdump。
这里我用到了三个新工具,sar、hping3和 tcpdump,先简单介绍一下∶
● sar是一个系统活动报告工具,既可以实时查看系统的当前活动,又可以配置保存和报告历史统计数据。
● hping3是一个可以构造TCP/P协议数据包的工具,可以对系统进行安全审计、防火墙测试等。
● tcpdump是一个常用的网络抓包工具,常用来分析各种网络问题。本次案例用到两台虚拟机,我画了一张图来表示它们的关系。
操作和分析
安装完成后,我们先在第一个终端,执行下面的命令运行案例,也就是一个最基本的Nginx 应用:
# 运行 Nginx 服务并对外开放 80 端口
docker run-itd--name=nginx -p 80:80 nginx
然后,在第二个终端,使用 curl 访问Nginx 监听的端口,确认Nginx 正常启动。假设192.168.0.30是Nginx 所在虚拟机的 IP地址,运行 curl命令后你应该会看到下面这个输出界面∶
$ curl http://192.168.8.38/
<!DOCTYPE html>chtml><head>
<title>welcome to nginx!</title>
接着,还是在第二个终端,我们运行 hping3命令,来模拟Nginx 的客户端请求∶
# -S参数表示设置TCP协议的SYN(同步序列号),-p表示目的端口为80
# -i u100表示每隔100微秒发送一个网络帧
# 注:如果你在实践过程中现象不明显,可以尝试把100调小,比如调成10甚至1
$ hping3 -S -p 80 -i u100 192.168.0.30
现在我们再回到第一个终端,你应该发现了异常。是不是感觉系统响应明显变慢了,即便只是在终端中敲几个回车,都得很久才能得到响应?这个时候应该怎么办呢?
虽然在运行 hping3命令时,我就已经告诉你,这是一个 SYN FLOOD攻击,你肯定也会想到从网络方面入手,来分析这个问题。不过,在实际的生产环境中,没人直接告诉你原因。所以,我希望你把 hping3模拟SYNF LOOD 这个操作暂时忘掉,然后重新从观察到的问题开始,分析系统的资源使用情况,逐步找出问题的根源。
那么,该从什么地方入手呢?刚才我们发现,简单的SHELL命令都明显变慢了,先看看系统的整体资源使用情况应该是个不错的注意,比如执行下 top看看是不是出现了CPU的瓶颈。我们在第一个终端运行 top命令,看一下系统整体的资源使用情况。
# top运行后按数字1切换到显示所有CPU
$ top
top - 10:50:58 up 1 days, 22:10, 1 user, load average: 0.00, 0.00, 0.00
Tasks: 122 total, 1 running, 71 sleeping, 0 stopped, 0 zombie
%Cpu0 : 0.0 us, 0.0 sy, 0.0 ni, 96.7 id, 0.0 wa, 0.0 hi, 3.3 si, 0.0 st
%Cpu1 : 0.0 us, 0.0 sy, 0.0 ni, 95.6 id, 0.0 wa, 0.0 hi, 4.4 si, 0.0 st
...PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND7 root 20 0 0 0 0 S 0.3 0.0 0:01.64 ksoftirqd/016 root 20 0 0 0 0 S 0.3 0.0 0:01.97 ksoftirqd/12663 root 20 0 923480 28292 13996 S 0.3 0.3 4:58.66 docker-containe3699 root 20 0 0 0 0 I 0.3 0.0 0:00.13 kworker/u4:03708 root 20 0 44572 4176 3512 R 0.3 0.1 0:00.07 top1 root 20 0 225384 9136 6724 S 0.0 0.1 0:23.25 systemd2 root 20 0 0 0 0 S 0.0 0.0 0:00.03 kthreadd
...
这里你有没有发现异常的现象?我们从第一行开始,逐个看一下∶
- 平均负载全是0,就绪队列里面只有一个进程(1 running)
- 每个 CPU 的使用率都挺低,最高的CPU1 的使用率也只有4.4%,并不算高
- 再看进程列表,CPU 使用率最高的进程也只有0.3%,还是不高呀。
那为什么系统的响应变慢了呢?既然每个指标的数值都不大,那我们就再来看,这些指标对应的更具体的含义。毕竟,哪怕是同一个指标,用在系统的不同部位和场景上,都有可能对应着不同的性能问题。
仔细看 top的输出,两个CPU的使用率虽然分别只有3.3%和4.4%,但都用在了软中断上。而从进程列表上也可以看到,CPU使用率最高的也是软中断进程 ksoftirqd。看起来,软中断有点可疑了。
既然软中断可能有问题,那你先要知道,究竟是哪类软中断的问题。用了什么方法,来判断软中断类型呢? 没错,还是proc文件系统。观察/proc/softirqs 文件的内容,你就能知道各种软中断类型的次数。
不过,这里的各类软中断次数,又是什么时间段里的次数呢?它是系统运行以来的累积中断次数。所以我们直接查看文件内容,得到的只是累积中断次数,对这里的问题并没有直接参考意义。因为,这些中断次数的变化速率才是我们需要关注的。
那什么工具可以观察命令输出的变化情况呢?我想你应该想起来了,在前面案例中用过的watch命令,就可以定期运行一个命令来查看输出;如果再加上-d参数,还可以高亮出变化的部分,从高亮部分我们就可以直观看出,哪些内容变化得更快。比如,还是在第一个终端,我们运行下面的命令∶
$ watch -d cat /proc/softirqsCPU0 CPU1HI: 0 0TIMER: 1083906 2368646NET_TX: 53 9NET_RX: 1550643 1916776BLOCK: 0 0IRQ_POLL: 0 0TASKLET: 333637 3930SCHED: 963675 2293171HRTIMER: 0 0RCU: 1542111 1590625
通过/proc/softirqs 文件内容的变化情况,你可以发现,TIMER(定时中断)、NET_RX(网络接收)、SCHED(内核调度)、RCU(RCU 锁)等这几个软中断都在不停变化。其中,NET_RX,也就是网络数据包接收软中断的变化速率最快。而其他几种类型的软中断,是保证 Linux 调度、时钟和临界区保护这些正常工作所必需的,所以它们有一定的变化倒是正常的。
那么接下来,我们就从网络接收的软中断着手,继续分析。既然是网络接收的软中断,第一步应该就是观察系统的网络接收情况。这里你可能想起了很多网络工具,不过,我推荐今天的主人公工具 sar。
sar 可以用来查看系统的网络收发情况,还有一个好处是,不仅可以观察网络收发的吞吐量(BPS,每秒收发的字节数),还可以观察网络收发的PPS,即每秒收发的网络帧数。我们在第一个终端中运行 sar命令,并添加-n DEV参数显示网络收发的报告∶
# -n DEV 表示显示网络收发的报告,间隔1秒输出一组数据
$ sar -n DEV 1
15:03:46 IFACE rxpck/s txpck/s rxkB/s txkB/s rxcmp/s txcmp/s rxmcst/s %ifutil
15:03:47 eth0 12607.00 6304.00 664.86 358.11 0.00 0.00 0.00 0.01
15:03:47 docker0 6302.00 12604.00 270.79 664.66 0.00 0.00 0.00 0.00
15:03:47 lo 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
15:03:47 veth9f6bbcd 6302.00 12604.00 356.95 664.66 0.00 0.00 0.00 0.05
对于 sar的输出界面,我先来简单介绍一下,从左往右依次是∶
- 第一列∶表示报告的时间。
- 第二列∶ IFACE表示网卡。
- 第三、四列∶rxpck/s和 txpck/s 分别表示每秒接收、发送的网络帧数,也就是PPS。
- 第五、六列∶rxkB/s和 txkB/s分别表示每秒接收、发送的千字节数,也就是BPS。
- 后面的其他参数基本接近0,显然跟今天的问题没有直接关系,你可以先忽略掉。
我们具体来看输出的内容,你可以发现∶
- 对网卡eth0来说,每秒接收的网络帧数比较大,达到了12607,而发送的网络帧数则比较小,只有6304,每秒接收的千字节数只有664 KB,而发送的千字节数更小,只有358 KB。
- docker0和veth9fbbcd的数据跟eth0基本一致,只是发送和接收相反,发送的数据较大而接收的数据较小。这是Linux 内部网桥转发导致的,你暂且不用深究,只要知道这是系统把 eth0收到的包转发给Nginx 服务即可。
从这些数据,你有没有发现什么异常的地方?
既然怀疑是网络接收中断的问题,我们还是重点来看 eth0∶接收的 PPS 比较大,达到12607,而接收的 BPS却很小,只有664KB。直观来看网络帧应该都是比较小的,我们稍微计算一下,664*1024/12607=54字节,说明平均每个网络帧只有54字节,这显然是很小的网络帧,也就是我们通常所说的小包问题。
那么,有没有办法知道这是一个什么样的网络帧,以及从哪里发过来的呢?
使用 tcpdump抓取 eth0上的包就可以了。我们事先已经知道,Nginx监听在80端口,它所提供的HTTP服务是基于 TCP协议的,所以我们可以指定 TCP协议和80端口精确抓包。接下来,我们在第一个终端中运行 tcpdump命令,通过-i eth0选项指定网卡eth0,并通过tcp port 80选项指定 TCP 协议的80端口∶
# -i eth0 只抓取eth0网卡,-n不解析协议名和主机名
# tcp port 80表示只抓取tcp协议并且端口号为80的网络帧
$ tcpdump -i eth0 -n tcp port 80
15:11:32.678966 IP 192.168.0.2.18238 > 192.168.0.30.80: Flags [S], seq 458303614, win 512, length 0
...
从 tcpdump的输出中,你可以发现
- 192.168.0.2.18238>192.168.0.30.80,表示网络帧从192.168.0.2的18238端口发送到192.168.0.30的80端口,也就是从运行hping3机器的18238端口发送网络帧,目的为Nginx 所在机器的80端口。
- Flags【S】则表示这是一个 SYN 包。
再加上前面用 sar 发现的,PPS超过12000的现象,现在我们可以确认,这就是从192.168.0.2这个地址发送过来的 SYN FLOOD 攻击。
到这里,我们已经做了全套的性能诊断和分析。从系统的软中断使用率高这个现象出发,通过观察/proc/softirqs 文件的变化情况,判断出软中断类型是网络接收中断,再通过 sar和tcpdump,确认这是一个 SYN FLOOD问题。
SYN FLOOD问题最简单的解决方法,就是从交换机或者硬件防火墙中封掉来源 IP,这样 SYN FLOOD 网络帧就不会发送到服务器中。
小结
软中断CPU使用率(softirq)升高是一种很常见的性能问题。虽然软中断的类型很多,但实际生产中,我们遇到的性能瓶颈大多是网络收发类型的软中断,特别是网络接收的软中断。在碰到这类问题时,你可以借用 sar、tcpdump 等工具,做进一步分析。不要害怕网络性能,后面我会教你更多的分析方法。
Linux CPU软中断案例一则相关推荐
- Linux性能排查——CPU软中断问题
1.CPU中断 中断其实是一种异步的事件处理机制,可以提高系统的并发处理能力. 由于中断处理程序会打断其他进程的运行,所以,为了减少对正常进程运行调度的影响,中断处理程序就需要尽可能快地运行. Lin ...
- 《Linux企业应用案例精解》一书已由清华大学出版社出版
<Linux企业应用案例精解>简介 本书同时被×××国家科学图书馆.中国国家图书馆.首都图书馆.清华大学.北京大学等上百所国内综合性大学图书馆收录为馆藏图书,2013年本书远销到中国台湾地 ...
- linux cpu softirq,linux softirq机制
Copyright © 2003 by 詹荣开 E-mail:zhanrk@sohu.com Linux-2.4.0 Version 1.0.0,2003-2-14 摘要:本文主要从内核实现的角度分析 ...
- linux内核软中断引起大量丢包
最近用linux做nat多出口时,遇到的几个问题,经过一个星期的资料查找跟具体实践终于给解决了,由于的问题复杂性,加之个人水平十分有限,解决的过程十分的痛苦,为了使更多的人,不痛苦或者少痛苦一点,介绍 ...
- Linux下软中断过程(详细)源码总结
一.简介 由于中断会打断内核中进程的正常调度运行,所以要求中断服务程序尽可能的短小精悍:但是在实际系统中,当中断到来时,要完成工作往往进行大量的耗时处理.因此期望让中断处理程序运行得快,并想让它完成的 ...
- Linux CPU负载性能监测
Linux CPU性能监测 平均负载和 CPU 使用率 压测命令 stress 模拟负载场景 监测工具 top mpstat pidstat 补充:自愿上下文切换和非自愿上下文切换 平均负载和 CPU ...
- Linux CPU 性能指标分析
简介 在服务端测试,以及生产环境中,通过需要观察CPU的使用情况,以此作为衡量系统性能的重要指标.对于Linux CPU主要的指标有,利用率,运行队列,负载,上下文切换等,对一个合格的程序员来说了解这 ...
- 生产场景不同角色linux服务器分区案例分享
######################################################### #生产场景不同角色linux服务器分区案例分享 #date:2011-08-08 # ...
- linux cpu load 值,理解Linux系统中的load average(图文版)转
一.什么是load average? linux系统中的Load对当前CPU工作量的度量 (WikiPedia: the system load is a measure of the amount ...
最新文章
- npm更新模块并同步到package.json中
- jQuery入门[2]-选择器[转]
- 【Python自然语言处理】中文分词技术——规则分词
- python 调用vba 参数 保存表格_Jupyter Notebooks嵌入Excel并使用Python替代VBA宏
- 面试题 03.06. 动物收容所
- 《Linux KVM虚拟化架构实战指南》——第1章 KVM虚拟化概述 1.1XEN虚拟化介绍
- python django开发框架_Python Django 框架开发
- Houdini特效资源如何导入?Houdini工程文件导入教程
- 岛主 同学给我出的算法题
- 教你快速使用VSCode编写HTML文件
- 800G 112Gb/S(II), Terabit Ethernet – How? (Part2)
- 计算机sci转让,sci论文有没有转让的
- 1688、京东、拼多多各大电商平台API接口调用示例
- 又一巨头告急!曾年赚500亿,如今连房租都付不起!
- 随身WIFI折腾日记(一)---霓虹灯
- UI设计中色彩搭配使用技巧
- C语言学习之选择结构程序设计总结
- Node.js项目中动态加载环境变量配置
- Apple Configurator 2获取ipa包
- 2023湖北师范大学计算机考研信息汇总