做性能测试的必备知识系列,可以看下面链接的文章哦

https://www.cnblogs.com/poloyy/category/1806772.html

 

课前准备,安装 sysbench

下载 sysbench

git clone https://github.com/akopytov/sysbench.git

 

安装依赖

yum install autoconf automake libtool -y

 

编译安装

cd sysbench/
./autogen.sh
./configure --without-mysql
make && make install

 

百度云链接

链接:https://pan.baidu.com/s/1a9qR9GNzEbj1rkDp2wXfIw

提取码:kone

下载压缩包放到服务器,然后解压即可

 

如何查看系统的上下文切换情况

vmstat 

  • 使用 vmstat 这个工具,来查询系统的上下文切换情况
  • vmstat 是一个常用的系统性能分析工具,主要用来分析系统的内存使用情况,也常用来分析 CPU 上下文切换和中断的次数

 

了解 vmstat 输出的参数含义

每隔 2s 输出一次结果

vmstat 2

这里我们只了解必备参数,后面有单独一篇文章展开来讲解 vmstat 命令

参数分析

  • cs(context switch):每秒上下文切换的次数
  • in(interrupt):每秒中断的次数
  • r(Running or Runnable):就绪队列的长度,也就是正在运行和等待 CPU 的进程数
  • b(Blocked):处于不可中断睡眠状态的进程数

vmstat 只给出了系统总体的上下文切换情况,如何查看每个进程详细情况?答案是通过 pidstat

 

通过 pidstat 查看进程上下文切换的情况

加上 -w 选项,每 3s 输出一次结果,共输出 3 次

pidstat -w 3 3

结果分析

  • cswch:每秒自愿上下文切换
  • nvcswch:每秒非自愿上下文切换的次数

 

自愿上下文切换

  • 进程无法获取所需自愿,导致的上下文切换
  • 栗子:I/O、内存等系统资源不足时,就会发生

 

非自愿上下文切换

  • 非自愿上下文切换,则是指进程由于时间片已到等原因,被系统强制调度,进而发生的上下文切换
  • 栗子:大量进程都在争抢 CPU 时,就容易发生非自愿上下文切换

 

通过栗子去看上下文切换

前期准备

  • 安装 sysbench:上面有提到了
  • 安装 sysstat:参考这篇文章,https://www.cnblogs.com/poloyy/p/13325507.html
  • 需要有一个虚拟机,我自己的虚拟机是 4核的哈
  • 等下会通过远程连接工具来远程虚拟机,然后需要三个终端均访问我的虚拟机

 

sysbench 介绍

  • 一个多线程的基准测试工具(前面讲的 stress 是多进程)
  • 一般用来评估不同系统参数下的数据库负载情况
  • 在接下来的案例中,主要是当成一个异常进程来看,作用是模拟上下文切换过多的问题

 

空闲系统的上下文切换次数

输入以下命令,每 1 秒输出一次结果,输出 5 次

vmstat 1 5

结果分析

  • 现在的上下文切换次数 cs 是 200-300左右,而中断次数 in 是 200 左右,r 和 b 都是 0。
  • 因为这会儿并没有运行其他任务,所以它们就是空闲系统的上下文切换次数

 

第一个终端运行 sysbench

输入以下命令,以 10 个线程运行 5 分钟的基准测试,模拟多线程切换的问题

sysbench --threads=10 --time=300 threads run

 

第二个终端通过 vmstat 查看上下文切换

vmstat 1

结果分析

  • cs 列:上下文切换次数从之前 200 骤然上升到了 160w+...
  • r 列:就绪队列的长度最大到 8了,大于我们的 CPU 个数 4,所以会存在大量的 CPU 竞争
  • us、sy 列:两列的 CPU 使用率加起来上升到了 80-90,其中系统 CPU 使用率都是 60%+,说明 CPU 主要是被内核占用了
  • in 列:中断次数已经达到 8w 了...说明中断处理也是个潜在的问题

 

总结下

  • 系统的就绪队列过长,也就是正在运行和等待 CPU 的进程数过多,导致了大量的上下文切换,而上下文切换又导致了 CPU 使用率升高
  • 一环扣一环的,先有因后有果,别搞乱了顺序

 

提出疑问

到底是什么进程导致了这些问题呢?

 

第三个终端通过 pidstat 来看进程的上下文切换次数

输入以下命令,-w 输出进程切换指标,-u 输出 CPU 使用情况

pidstat -w -u 1

结果分析

  • sysbench 进程 CPU 使用率很高,已经差不多占用了 4 个 CPU 了
  • 但上下文切换次数多主要是其他进程,包括内核线程 kworker
  • 貌似所有进程加起来的上下文切换次数也就几百,远不如 vmstat 看到的上百万,咋肥事!

 

分析下为什么上下文切换次数会这么少

  • 首先,Linux 调度的基本单位是线程
  • sysbench 是模拟线程的调度问题

 

查看 pidstat 命令的作用

man pidstat

 

有那么一句英文,可以看到,pidstat 默认显示进程级别的指标数据

  • 然后往下翻,可以看到 -t 参数
  • 它可以显示与选定任务关联的线程的统计信息

 

第三个终端重新执行 pidstat 命令

pidstat -wt 1 10

结果分析

sysbench 的多个线程的上下文切换次数有非常多,终于找到罪魁祸首了

 

分析为什么中断次数也颇高

前面也说到 in 值达到了 8w,那是什么导致中断次数如此之高呢,接下来瞧一瞧

 

首先

中断处理,它只发生在内核态,而 pidstat 只是一个进程的性能分析工具,并不提供任何关于中断的详细信息

 

如何查看中断发生的类型

从  /proc/interrupts  这个只读文件中读取

 /proc  实际上是 Linux 的一个虚拟文件系统,用于内核空间与用户空间之间的通信

 

继续在第三个终端执行命令

watch -d cat /proc/interrupts

结果分析

  • 观察一段时间,可以发现变化速度最快的是重调度中断(RES),表示唤醒空闲状态的 CPU 来调度新的任务运行
  • 这是多处理器系统(SMP)中,调度器用来分散任务到不同 CPU 的机制,通常也被称为处理器间中断(Inter-Processor Interrupts, IPI)

 

总结

中断次数升高还是因为多任务的调度问题,和前面线程上下文切换次数的分析结果是一致的

 

每秒上下文切换多少次才算正常?

  • 这个数值其实取决于系统本身的 CPU 性能
  • 如果系统的上下文切换次数比较稳定,那么数百到一万以内,都是正常的
  • 但当上下文切换次数超过一万次,或者切换次数出现数量级的增长时,就很可能已经出现了性能问题

 

深入分析

根据上下文切换的类型,具体分析

  1. 自愿上下文切换多了,说明进程都在等待资源,有可能发生了 I/O 等其他问题
  2. 非自愿上下文切换多了,说明进程都在被强制调度,也就是都在争抢 CPU,说明 CPU 的确成了瓶颈
  3. 中断次数变多了,说明 CPU 被中断处理程序占用,还需要通过 /pro/interrupts  文件来分析具体的中断类型

 

全文总结-如何查看分析上下文切换

  • 通过 vmstat 确认系统的当前的上下文切换(cs)、中断次数(in)、就绪队列(r)、CPU 使用率(us、sy)
  • 若上下文切换次数和 CPU 使用率过高,通过 pidstat 查看是哪个进程或线程的切换次数过高,CPU 使用率过高
  • 然后确认是自愿上下文切换还是非自愿上下文切换,从而深入分析是否存在其他系统瓶颈问题
  • 若中断次数过高,通过 /proc/interrupts 分析是哪种中断类型