大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
iostat主要用于监控系统设备的IO负载情况,iostat提供了丰富的参数给我们查询各种维度的io数据, iostat首次运行时显示自系统启动开始的各项统计信息,之后运行iostat将显示自上次运行该命令以后的统计信息。用户可以通过指定统计的次数和时间来获得所需的统计信息。
一、命令相关参数
命令使用:
iostat [ -c ] [ -d ] [ -N ] [ -n ] [ -h ] [ -k | -m ] [ -t ] [ -V ] [ -x ] [ -y ] [ -z ] [ -j { ID | LABEL | PATH | UUID | … } [ device […] | ALL ] ] [ device […] | ALL ] [ -p [ device [,…] | ALL ] ] [ interval [ count ] ]
看着有点乱,我们可以归纳为:
iostat [-参数] [指定磁盘] [采集周期频率] [采集次数]
比如iostat -k sda 5 2表示采集sda磁盘上的相关信息,每5秒采集一次,一共采集2次。-k参数表示以kb来显示。
相关参数介绍:
参数 详解
-c 只显示cpu相关统计信息(默认是同时显示cpu和磁盘信息)
-d 只显示磁盘统计信息(默认是同时显示cpu和磁盘信息)
-h 使用NFS的输出报告更加友好可读。
-j { ID | LABEL | PATH | UUID | … } 磁盘列表的Device列要用什么维度来描述磁盘
-k 默认情况下,iostat的输出是以block作为计量单位,加上这个参数可以以kb作为计量单位显示。(该参数仅在linux内核版本2.4以后数据才是准确的)
-m 默认情况下,iostat的输出是以block作为计量单位,加上这个参数可以以mb作为计量单位显示。(该参数仅在linux内核版本2.4以后数据才是准确的)
-N 显示磁盘阵列(LVM) 信息
-n 显示NFS相关统计数据(network fileSystem)。(该参数只在linux内核版本2.6.17之后有用)
-p [ { device [,…] | ALL } ] 显示磁盘分区的相关统计信息(默认粒度只到磁盘,没有显示具体的逻辑分区)
-t 显示终端和CPU的信息,每次输出报告时显示系统时间。
-V 显示当前iostat的版本信息
-x 显示更详细的磁盘报告信息,默认只显示六列,加上该参数后会显示更详细的信息。(该参数需要在内核版本2.4之后才能使用)
-y 跳过不显示第一次报告的数据,因为iostat使用的是采样统计,所以iostat的第一次输出的数据是自系统启动以来累计的数据
-z 只显示在采样周期内有活动的磁盘
二、命令演示
# # iostat -c 2 3
Linux 3.10.0-1062.el7.x86_64 (ruioracle43) 02/23/2022 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.12 0.00 0.10 0.00 0.00 99.77
avg-cpu: %user %nice %system %iowait %steal %idle
0.13 0.00 0.13 0.00 0.00 99.75
avg-cpu: %user %nice %system %iowait %steal %idle
0.13 0.00 0.13 0.00 0.00 99.75
%user:CPU处在用户模式下的时间百分比。
%nice:CPU处在带NICE值的用户模式下的时间百分比。
%system:CPU处在系统模式下的时间百分比。
%iowait:CPU等待输入输出完成时间的百分比。如果%iowait的值过高,表示硬盘存在I/O瓶颈。
%steal:管理程序维护另一个虚拟处理器时,虚拟CPU的无意识等待时间百分比。
%idle:CPU空闲时间百分比。
* 如果%idle值高,表示CPU较空闲。
* 如果%idle值高但系统响应慢时,可能是CPU等待分配内存,应加大内存容量。
* 如果%idle值持续低于10,表明CPU处理能力相对较低,系统中最需要解决的资源是CPU。
# iostat -c sda 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.22 3715725 54933545
avg-cpu: %user %nice %system %iowait %steal %idle
0.08 0.00 0.13 0.04 0.00 99.75
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.67 2.67 17.33 8 52
# iostat -d 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.22 3716213 54945198
scd0 0.00 0.00 0.00 1028 0
dm-0 2.08 1.97 28.57 3696199 53712983
dm-1 0.00 0.00 0.00 2204 0
dm-2 0.01 0.00 0.65 1430 1216787
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 3.67 0.00 46.67 0 140
scd0 0.00 0.00 0.00 0 0
dm-0 3.67 0.00 46.67 0 140
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
--显示设备(磁盘)使用状态,以kb作为计量单位显示,每隔2秒刷新一次,共显示3次 。
# iostat -dk 2 3
Linux 3.10.0-1062.el7.x86_64 (ruioracle43) 02/23/2022 _x86_64_ (8 CPU)
#以下第一段忽略
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 1.35 0.89 70.29 552093 43396658
dm-0 0.64 0.56 29.78 343291 18387249
dm-1 0.16 0.31 0.32 190216 196956
dm-2 0.00 0.00 0.00 1118 2458
dm-3 0.72 0.00 40.16 1169 24794583
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 1.00 0.00 16.00 0 32
dm-0 0.50 0.00 8.00 0 16
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
dm-3 0.50 0.00 8.00 0 16
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 4.50 0.00 66.00 0 132
dm-0 2.00 0.00 32.00 0 64
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
dm-3 2.50 0.00 34.00 0 68
tps:每秒I/O数(即IOPS,磁盘连续读和连续写之和)
kB_read/s:每秒从设备(drive expressed)读取的数据量(单位为Kilobytes)。
kB_wrtn/s:每秒向设备(drive expressed)写入的数据量(单位为Kilobytes)。
kB_read:读取的总数据量(单位为Kilobytes)。
kB_wrtn:写入的总数据量(单位为Kilobytes)。
在上面的例子中,我们可以看到磁盘sda以及它的各个分区的统计数据,当时统计的磁盘sda总TPS是1 ~ 4.5,下面是各个分区的TPS。
(注意:因为是瞬间值,所以总TPS并不严格等于各个分区TPS的总和。)
--显示详细信息,以kb作为计量单位显示,每隔2秒刷新一次,共显示3次 。
# iostat -xdk 2 3
Linux 3.10.0-1062.el7.x86_64 (ruioracle43) 02/23/2022 _x86_64_ (8 CPU)
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.06 0.10 0.05 1.30 0.89 70.24 105.05 0.01 5.20 4.19 5.24 0.26 0.03
dm-0 0.00 0.00 0.04 0.60 0.56 29.76 94.41 0.00 3.05 5.57 2.89 0.26 0.02
dm-1 0.00 0.00 0.08 0.08 0.31 0.32 8.04 0.00 25.70 0.54 49.76 0.06 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 37.06 0.00 0.41 0.68 0.21 0.38 0.00
dm-3 0.00 0.00 0.00 0.72 0.00 40.13 112.10 0.01 7.08 0.72 7.08 0.24 0.02
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 3.00 0.00 30.00 20.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-0 0.00 0.00 0.00 0.50 0.00 8.00 32.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-3 0.00 0.00 0.00 2.50 0.00 22.00 17.60 0.00 0.00 0.00 0.00 0.00 0.00
rrqm/s:每秒进行 merge 的读操作数目,即每秒这个设备相关的读取请求有多少被Merge了,也即 delta(rmerge)/s。当系统调用需要读取数据的时候,VFS将请求发到各个FS,如果FS发现不同的读取请求读取的是相同Block的数据,FS会将这个请求合并Merge。
wrqm/s:每秒进行 merge 的写操作数目,即每秒这个设备相关的写入请求有多少被Merge了,也即 delta(wmerge)/s。
r/s: 每秒完成的读 I/O 设备次数,即 delta(rio)/s 。
w/s: 每秒完成的写 I/O 设备次数,即 delta(wio)/s 。
rkB/s: 每秒读K字节数,是 rsect/s 的一半,因为每扇区大小为512字节.(需要计算)。
wkB/s: 每秒写K字节数,是 wsect/s 的一半.(需要计算)。
avgrq-sz: 平均每次设备I/O操作的数据大小 (扇区),即delta(rsect+wsect)/delta(rio+wio)。
avgqu-sz: 平均I/O队列长度,即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。
await:平均每次设备I/O操作的等待时间 (毫秒),即 delta(ruse+wuse)/delta(rio+wio)。这里可以理解为IO的响应时间,一般地系统IO响应时间应该低于5ms,如果大于10ms就比较大了。
r_await:每个读操作平均所需的时间;不仅包括硬盘设备读操作的时间,还包括了在kernel队列中等待的时间。
w_await:每个写操作平均所需的时间;不仅包括硬盘设备写操作的时间,还包括了在kernel队列中等待的时间。
svctm: 平均每次设备I/O操作的服务时间 (毫秒),即 delta(use)/delta(rio+wio)。
%util:代表磁盘繁忙程度。100% 表示磁盘繁忙, 0%表示磁盘空闲。%util为在统计时间内所有处理IO时间,除以总共统计时间。例如,如果统计间隔1秒【本次案例是2秒】,该设备有0.8秒在处理IO,而0.2秒闲置,那么该设备的%util = 0.8/1 = 80%,所以该参数暗示了设备的繁忙程度。一般地,如果该参数是100%表示设备已经接近满负荷运行了(当然如果是多磁盘,即使%util是100%,因为磁盘的并发能力,所以磁盘使用未必就到了瓶颈)。
# iostat -h 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda
2.07 1.98 29.22 3716333 54946890
scd0
0.00 0.00 0.00 1028 0
dm-0
2.08 1.97 28.57 3696319 53714675
dm-1
0.00 0.00 0.00 2204 0
dm-2
0.01 0.00 0.65 1430 1216787
avg-cpu: %user %nice %system %iowait %steal %idle
0.13 0.00 0.08 0.00 0.00 99.79
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda
1.67 0.00 14.67 0 44
scd0
0.00 0.00 0.00 0 0
dm-0
1.67 0.00 14.67 0 44
dm-1
0.00 0.00 0.00 0 0
dm-2
0.00 0.00 0.00 0 0
# iostat -k 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.22 3716813 54959793
scd0 0.00 0.00 0.00 1028 0
dm-0 2.08 1.97 28.57 3696799 53727578
dm-1 0.00 0.00 0.00 2204 0
dm-2 0.01 0.00 0.65 1430 1216787
avg-cpu: %user %nice %system %iowait %steal %idle
0.17 0.00 0.13 0.00 0.00 99.71
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 5.67 0.00 39.33 0 118
scd0 0.00 0.00 0.00 0 0
dm-0 6.67 0.00 39.33 0 118
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
# iostat -m 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
sda 2.07 0.00 0.03 3629 53673
scd0 0.00 0.00 0.00 1 0
dm-0 2.08 0.00 0.03 3610 52469
dm-1 0.00 0.00 0.00 2 0
dm-2 0.01 0.00 0.00 1 1188
avg-cpu: %user %nice %system %iowait %steal %idle
0.08 0.00 0.13 0.00 0.00 99.79
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
sda 1.67 0.00 0.01 0 0
scd0 0.00 0.00 0.00 0 0
dm-0 1.67 0.00 0.01 0 0
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
# iostat -N 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.23 3716933 54962441
scd0 0.00 0.00 0.00 1028 0
rhel-root 2.08 1.97 28.57 3696919 53730226
rhel-swap 0.00 0.00 0.00 2204 0
rhel-home 0.01 0.00 0.65 1430 1216787
avg-cpu: %user %nice %system %iowait %steal %idle
0.08 0.00 0.08 0.00 0.00 99.83
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 1.67 0.00 14.67 0 44
scd0 0.00 0.00 0.00 0 0
rhel-root 1.67 0.00 14.67 0 44
rhel-swap 0.00 0.00 0.00 0 0
rhel-home 0.00 0.00 0.00 0 0
# iostat -p 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.23 3717053 54965125
sda1 0.00 0.01 0.01 12716 15427
sda2 2.07 1.97 29.22 3702793 54949698
scd0 0.00 0.00 0.00 1028 0
dm-0 2.08 1.97 28.57 3697039 53732910
dm-1 0.00 0.00 0.00 2204 0
dm-2 0.01 0.00 0.65 1430 1216787
avg-cpu: %user %nice %system %iowait %steal %idle
0.17 0.00 0.08 0.04 0.00 99.71
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 3.67 0.00 46.67 0 140
sda1 0.00 0.00 0.00 0 0
sda2 3.67 0.00 46.67 0 140
scd0 0.00 0.00 0.00 0 0
dm-0 3.67 0.00 46.67 0 140
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
# iostat -t 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
08/18/2021 11:09:08 AM
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.23 3717173 54966385
scd0 0.00 0.00 0.00 1028 0
dm-0 2.08 1.97 28.57 3697159 53734170
dm-1 0.00 0.00 0.00 2204 0
dm-2 0.01 0.00 0.65 1430 1216787
08/18/2021 11:09:11 AM
avg-cpu: %user %nice %system %iowait %steal %idle
0.13 0.00 0.04 0.00 0.00 99.83
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 3.67 0.00 46.67 0 140
scd0 0.00 0.00 0.00 0 0
dm-0 3.67 0.00 46.67 0 140
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
# iostat -V 3 2
sysstat version 10.1.5
(C) Sebastien Godard (sysstat <at> orange.fr)
# iostat -x 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.02 0.18 1.90 1.98 29.25 30.10 0.00 0.32 0.91 0.26 0.19 0.04
scd0 0.00 0.00 0.00 0.00 0.00 0.00 114.22 0.00 13.72 13.72 0.00 13.39 0.00
dm-0 0.00 0.00 0.18 1.90 1.97 28.58 29.36 0.00 0.32 0.91 0.26 0.20 0.04
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 50.09 0.00 0.99 0.99 0.00 0.89 0.00
dm-2 0.00 0.00 0.00 0.01 0.00 0.66 140.31 0.00 0.38 2.06 0.36 0.13 0.00
avg-cpu: %user %nice %system %iowait %steal %idle
0.04 0.00 0.08 0.00 0.00 99.87
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 4.33 0.00 57.33 26.46 0.00 0.15 0.00 0.15 0.15 0.07
scd0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-0 0.00 0.00 0.00 4.33 0.00 57.33 26.46 0.00 0.15 0.00 0.15 0.15 0.07
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
# iostat -y 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.17 0.00 0.13 0.04 0.00 99.67
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 3.67 0.00 46.67 0 140
scd0 0.00 0.00 0.00 0 0
dm-0 3.67 0.00 46.67 0 140
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
avg-cpu: %user %nice %system %iowait %steal %idle
0.08 0.00 0.13 0.00 0.00 99.79
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 1.67 0.00 14.67 0 44
scd0 0.00 0.00 0.00 0 0
dm-0 1.67 0.00 14.67 0 44
dm-1 0.00 0.00 0.00 0 0
dm-2 0.00 0.00 0.00 0 0
# iostat -z 3 2
Linux 3.10.0-1062.el7.x86_64 (ruitest01) 08/18/2021 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.11 0.00 0.12 0.00 0.00 99.77
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 2.07 1.98 29.25 3717413 55012803
scd0 0.00 0.00 0.00 1028 0
dm-0 2.08 1.97 28.58 3697399 53759341
dm-1 0.00 0.00 0.00 2204 0
dm-2 0.01 0.00 0.66 1430 1238034
avg-cpu: %user %nice %system %iowait %steal %idle
0.08 0.00 0.13 0.00 0.00 99.79
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 1.67 0.00 14.67 0 44
dm-0 1.67 0.00 14.67 0 44
通过uname -a可以查看当前linux系统的内核版本。2.4版本后一个block的大小通常是512byte
默认情况下,第一次的输出信息的数据是从操作系统启动以来的累计数据,第二次开始才是真正的采样周期内的真实数据,这点和top命令很像。我们可以加上-y来过滤掉第一次的输出信息。
1、cpu部分的统计
这里的cpu统计信息只是取平均值,如果是多核cpu,想看每核cpu的具体统计信息,可以使用top命令。
下面的百分比计算一般采用公式: 消耗时间*100.0/采样时间
%user: cpu消耗在用户空间的时间占比
%nice: 被用户修改过优先级的进程运行时间占比
%system: cpu消耗在内核空间的时间占比
%iowait: cpu在等待IO的时间占比(需要满足CPU资源空闲而磁盘IO在工作的条件)
%steal: 当hypervisor正服务于另外一个虚拟处理器时无意识地等待虚拟CPU所占有的时间百分比
%idle: cpu空闲时间百分比
iowait可以作为磁盘是否是系统瓶颈的参考值,但并不能全信。iowait表示的含义是cpu没在工作而在等待io的时间占比,在cpu高速运转的情况下也会出现iowait高的情况,这并不能表明磁盘性能就有问题。唯一能说明磁盘性能差的应该是根据磁盘的read/write时间,一般来说,一次读写就是一次寻道+一次旋转延迟+数据传输的时间。现代硬盘数据传输就是几微秒或者几十微秒的事情,远远小于寻道时间220ms和旋转延迟48ms,所以只计算这两个时间就差不多了,也就是15~20ms。如果磁盘读写时间大于20ms,就要考虑是否是磁盘读写太多,导致磁盘性能降低了。
如果%iowait的值过高,表示硬盘存在I/O瓶颈,%idle值高,表示CPU较空闲,如果%idle值高但系统响应慢时,有可能是CPU等待分配内存,此时应加大内存容量。%idle值如果持续低于10,那么系统的CPU处理能力相对较低,表明系统中最需要解决的资源是CPU。
2、磁盘部分的统计
在没加-x参数时,默认输出以下六列:
Device:磁盘名称,可以通过-p参数改成ID、PATH、UUID的形式
tps:取样周期内,磁盘的读写次数。但是由于有时操作系统会合并多个IO请求成一个,因此这个参数并不是十分准确。
Blk_read/s:取样周期内,每秒读取的block数量(通过参数-k -m可以将单位改成kb、mb)
Blk_wrtn/s:取样周期内,每秒写入的block数量(通过参数-k -m可以将单位改成kb、mb)
Blk_read:取样周期内,读取的总block数量(通过参数-k -m可以将单位改成kb、mb)
Blk_wrtn:取样周期内,写入的总block数量(通过参数-k -m可以将单位改成kb、mb)
如果加了-x参数,会显示更加详细的数据,如下图:
rrqm/s:采样周期内,每秒merge的读请求数量
wrqm/s:采样周期内,,每秒merge的写请求数量
r/s:采样周期内,每秒的读请求数量
w/s:采样周期内,每秒的写请求数量
rsec/s:采样周期内,每秒读取的扇区数量(通过参数-k -m可以将单位改成kb、mb)
wsec/s:采样周期内,每秒写入的扇区数量(通过参数-k -m可以将单位改成kb、mb)
avgrq-sz:采样周期内,平均IO请求的大小(以扇区为单位)
avgqu-sz:采样周期内,平均IO队列长度(在等待被执行的IO请求)
await:采样周期内,IO请求的平均时间(排队时长+IO服务时长),单位是毫秒
svctm:采样周期内,IO请求的平均服务时间,排除排队的时长,单位是毫秒(该统计维度的数值不可信,后面的iostat版本会移除这项统计值)
%util:采样周期内,IO忙碌的时间百分比,如果这个值接近100,说明此时IO已经满负荷了
# iostat -cxdk 2 3
Linux 3.10.0-1062.el7.x86_64 (ruioracle43) 02/23/2022 _x86_64_ (8 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
0.12 0.00 0.10 0.00 0.00 99.77
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.06 0.10 0.05 1.30 0.89 70.08 104.86 0.01 5.19 4.19 5.23 0.26 0.03
dm-0 0.00 0.00 0.04 0.60 0.55 29.70 94.23 0.00 3.05 5.57 2.89 0.26 0.02
dm-1 0.00 0.00 0.08 0.08 0.31 0.32 8.04 0.00 25.70 0.54 49.76 0.06 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 37.06 0.00 0.41 0.68 0.21 0.38 0.00
dm-3 0.00 0.00 0.00 0.72 0.00 40.03 111.91 0.01 7.07 0.72 7.07 0.24 0.02
avg-cpu: %user %nice %system %iowait %steal %idle
0.13 0.00 0.13 0.00 0.00 99.75
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 1.00 0.00 16.00 32.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-0 0.00 0.00 0.00 0.50 0.00 8.00 32.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-3 0.00 0.00 0.00 0.50 0.00 8.00 32.00 0.00 0.00 0.00 0.00 0.00 0.00
avg-cpu: %user %nice %system %iowait %steal %idle
0.06 0.00 0.13 0.00 0.00 99.81
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 1.00 0.00 16.00 32.00 0.00 0.50 0.00 0.50 0.50 0.05
dm-0 0.00 0.00 0.00 0.50 0.00 8.00 32.00 0.00 1.00 0.00 1.00 1.00 0.05
dm-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
dm-3 0.00 0.00 0.00 0.50 0.00 8.00 32.00 0.00 0.00 0.00 0.00 0.00 0.00
I/O 系统也和超市排队有很多类似之处:
r/s+w/s 类似于交款人的总数;
平均队列长度(avgqu-sz)类似于单位时间里平均排队人的个数;
平均服务时间(svctm:毫秒)类似于收银员的收款速度(收银员平均收银耗时) 应该 < await ;
平均等待时间(await:毫秒)类似于平均每人的等待时间;
平均I/O数据(avgrq-sz)类似于平均每人所买的东西多少;
I/O 操作率 (%util)类似于收款台前有人排队的时间比例。
我们可以根据这些数据分析出 I/O 请求的模式,以及 I/O 的速度和响应时间.
总结
网上许多博客都说用svctm可以衡量磁盘的性能,但是在iostat的man文档中有提到,让我们不要相信这个列的输出值,并且在后面的版本中会去除这个统计项。
svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),svctm 的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多也会间接导致 svctm 的增加。await 的大小一般取决于服务时间(svctm) 以及I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近 await,说明I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU。
所以要统计磁盘性能,综合来说还是用await列的信息来判断。一般的磁盘读写性能在20ms左右,如果await比这个数值大很多,就说明当前系统存在很大的IO问题。
avgqu-sz (平均每人所买的东西多少) 也是个做 IO 调优时需要注意的地方,这个就是直接每次操作的数据的大小,如果次数多,但数据拿的小的话,其实 IO 也会很小.如果数据拿的大,IO 的数据才会高。也可以通过 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s计算。如果avgqu-sz比较大,也表示有大量IO在等待。但由于 avgqu-sz 是按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。
如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。 idle小于70% IO压力就较大了,一般读取速度有较多的wait。同时可以结合vmstat 查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)。
另外 await 的参数也要多和 svctm 来参考。差的过高就一定有 IO 的问题。avgqu-sz 也是个做 IO 调优时需要注意的地方,这个就是直接每次操作的数据的大小,如果次数多,但数据拿的小的话,其实 IO 也会很小。如果数据拿的大,才IO 的数据会高。也可以通过 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是讲,读定速度是这个来决定的。
和大多的系统指标统计一样,iostat的数据也基本来自/proc虚拟文件系统。比如 iostat -x 的数据则来自于 /proc/diskstats文件下的数据。另外,各种linux发行版的proc虚拟文件系统实现可能会有偏差,因此iostat输出的内容也可能不太一致。
下面分享一个不错的例子(I/O 系统 vs. 超市排队):
我们在超市排队时,怎么决定该去哪个收银台呢?
1)首当是看排队人数,5个人总比20人要快吧?
2)除了数人头,我们也常常看看前面人购买的东西多少,如果前面有个采购了一星期食品的大妈,那么可以考虑换个队排了。
3)还需要卡收银员的速度,如果碰上了连钱都点不清楚的新手,那就有的等了。
4)另外,时机也很重要,可能 5 分钟前还人满为患的收款台,现在已是人去楼空,这时候交款可是很爽啊,当然,前提是那过去的 5 分钟里所做的事情比排队要有意义 (不过我还没发现什么事情比排队还无聊的)。
参考文章:
https://mp.weixin.qq.com/s/SU19-3a2sinvE9CJXEbX-w
https://www.jianshu.com/p/cec0b9f052cb
https://www.jianshu.com/p/556cc01ccfe1
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/185362.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...