阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Linux下磁盘I/O测试

69次阅读
没有评论

共计 7909 个字符,预计需要花费 20 分钟才能阅读完成。

导读 目前主流的第三方 IO 测试工具有 [neiqian]fio[/neiqian]、[neiqian]iometer[/neiqian] 和[neiqian]Orion[/neiqian],这三种工具各有千秋。

fio在 Linux 系统下使用比较方便,iometer在 window 系统下使用比较方便,Orion是 oracle 的 IO 测试软件,可在没有安装 oracle 数据库的情况下模拟 oracle 数据库场景的读写。

如下是在 Linux 系统上采用 fio 工具来对 SAN 存储进行的 IO 测试。

1、安装 fio

方法一:在 fio 官网下载 fio-2.1.10.tar 文件,解压后 ./configuremakemake install 之后就可以使用 fio 了。

方法二:在 Linux 系统下通过 yum 安装,yum install -y fio

2、[neiqian]fio[/neiqian]参数解释

可以使用 fio -help 查看每个参数,具体的参数左右可以在官网查看 how to 文档,如下为几个常见的参数描述

filename=/dev/emcpowerb 支持文件系统或者裸设备,-filename=/dev/sda2 或 -filename=/dev/sdb
direct=1 测试过程绕过机器自带的 buffer,使测试结果更真实
rw=randwread 测试随机读的 I /O
rw=randwrite 测试随机写的 I /O
rw=randrw 测试随机混合写和读的 I /O
rw=read 测试顺序读的 I /O
rw=write 测试顺序写的 I /O
rw=rw 测试顺序混合写和读的 I /O
bs=4k 单次 io 的块文件大小为 4k
bsrange=512-2048 同上,提定数据块的大小范围
size=5g 本次的测试文件大小为 5g,以每次 4k 的 io 进行测试
numjobs=30 本次的测试线程为 30
runtime=1000 测试时间为 1000 秒,如果不写则一直将 5g 文件分 4k 每次写完为止
ioengine=psync io 引擎使用 pync 方式,如果要使用 libaio 引擎,需要 yum install libaio-devel 包
rwmixwrite=30 在混合读写的模式下,写占 30%
group_reporting 关于显示结果的,汇总每个进程的信息
此外
lockmem=1g 只使用 1g 内存进行测试
zero_buffers 用 0 初始化系统 buffer
nrfiles=8 每个进程生成文件的数量
3、fio 测试场景及生成报告详解
测试场景:

100% 随机,100% 读,4K

fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100read_4k

100% 随机,100% 写,4K

fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100write_4k

100% 顺序,100% 读,4K

fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100read_4k

100% 顺序,100% 写,4K

fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100write_4k

100% 随机,70% 读,30% 写 4K

fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k

结果报告查看:

[root@rac01-node02]# fio -filename=/dev/sdc4 -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k_local
randrw_70read_4k_local: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=1
...
fio-2.1.10
Starting 50 threads
Jobs: 21 (f=21): [mm_m_m__mmmmmm__mm_m_mmm_mm__m_m_m] [3.4% done] [7004KB/2768KB/0KB /s] [1751/692/0 iops] [eta 01h:27m:00s]
randrw_70read_4k_local: (groupid=0, jobs=50): err= 0: pid=13710: Wed May 31 10:23:31 2017
read : io=1394.2MB, bw=7926.4KB/s, iops=1981, runt=180113msec

clat (usec): min=39, max=567873, avg=24323.79, stdev=25645.98
lat (usec): min=39, max=567874, avg=24324.23, stdev=25645.98
clat percentiles (msec):
| 1.00th=[3], 5.00th=[5], 10.00th=[6], 20.00th=[7],
| 30.00th=[9], 40.00th=[12], 50.00th=[16], 60.00th=[21],
| 70.00th=[27], 80.00th=[38], 90.00th=[56], 95.00th=[75],
| 99.00th=[124], 99.50th=[147], 99.90th=[208], 99.95th=[235],
| 99.99th=[314]
bw (KB /s): min= 15, max= 537, per=2.00%, avg=158.68, stdev=38.08

write: io=615280KB, bw=3416.8KB/s, iops=854, runt=180113msec

clat (usec): min=167, max=162537, avg=2054.79, stdev=7665.24
lat (usec): min=167, max=162537, avg=2055.38, stdev=7665.23
clat percentiles (usec):
| 1.00th=[201], 5.00th=[227], 10.00th=[249], 20.00th=[378],
| 30.00th=[548], 40.00th=[692], 50.00th=[844], 60.00th=[996],
| 70.00th=[1160], 80.00th=[1304], 90.00th=[1720], 95.00th=[3856],
| 99.00th=[40192], 99.50th=[58624], 99.90th=[98816], 99.95th=[123392],
| 99.99th=[148480]
bw (KB /s): min= 6, max= 251, per=2.00%, avg=68.16, stdev=29.18
lat (usec) : 50=0.01%, 100=0.03%, 250=3.15%, 500=5.00%, 750=5.09%
lat (usec) : 1000=4.87%
lat (msec) : 2=9.64%, 4=4.06%, 10=21.42%, 20=18.08%, 50=19.91%
lat (msec) : 100=7.24%, 250=1.47%, 500=0.03%, 750=0.01%

cpu : usr=0.07%, sys=0.21%, ctx=522490, majf=0, minf=7
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%

submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=356911/w=153820/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
READ: io=1394.2MB, aggrb=7926KB/s, minb=7926KB/s, maxb=7926KB/s, mint=180113msec, maxt=180113msec
WRITE: io=615280KB, aggrb=3416KB/s, minb=3416KB/s, maxb=3416KB/s, mint=180113msec, maxt=180113msec

Disk stats (read/write):
sdc: ios=356874/153927, merge=0/10, ticks=8668598/310288, in_queue=8978582, util=99.99%
io= 执行了多少 M 的 IO

bw= 平均 IO 带宽
iops=IOPS
runt= 线程运行时间
slat= 提交延迟
clat= 完成延迟
lat= 响应时间
bw= 带宽
cpu= 利用率
IO depths=io 队列
IO submit= 单个 IO 提交要提交的 IO 数
IO complete=Like the above submit number, but for completions instead.
IO issued=The number of read/write requests issued, and how many of them were short.
IO latencies=IO 完延迟的分布

io= 总共执行了多少 size 的 IO
aggrb=group 总带宽
minb= 最小. 平均带宽.
maxb= 最大平均带宽.
mint=group 中线程的最短运行时间.
maxt=group 中线程的最长运行时间.

ios= 所有 group 总共执行的 IO 数.
merge= 总共发生的 IO 合并数.
ticks=Number of ticks we kept the disk busy.
io_queue= 花费在队列上的总共时间.
util= 磁盘利用率
4、扩展之 IO 队列深度

在某个时刻, 有 N 个 i nflight的 IO 请求, 包括在队列中的 IO 请求、磁盘正在处理的 IO 请求。N 就是队列深度。
加大硬盘队列深度就是让硬盘不断工作,减少硬盘的空闲时间。
加大队列深度 –> 提高利用率 –> 获得 IOPS 和 MBPS 峰值 –> 注意响应时间在可接受的范围内,
增加队列深度的办法有很多,使用异步 IO,同时发起多个 IO 请求,相当于队列中有多个 IO 请求,多线程发起同步 IO 请求,相当于队列中有多个 IO 请求。
增大应用 IO 大小,到达底层之后,会变成多个 IO 请求,相当于队列中有多个 IO 请求 队列深度增加了。
队列深度增加了,IO 在队列的等待时间也会增加,导致 IO 响应时间变大,这需要权衡。

为何要对磁盘 I / O 进行并行处理呢?主要目的是提升应用程序的性能。这一点对于多物理磁盘组成的虚拟磁盘(或LUN)显得尤为重要。
如果一次提交一个 I /O,虽然响应时间较短,但系统的吞吐量很小。
相比较而言,一次提交多个 I / O 既缩短了磁头移动距离(通过电梯算法),同时也能够提升IOPS
假如一部电梯一次只能搭乘一人,那么每个人一但乘上电梯,就能快速达到目的地(响应时间),但需要耗费较长的等待时间(队列长度)。
因此一次向磁盘系统提交多个 I / O 能够平衡吞吐量和整体响应时间。

Linux 系统查看默认队列深度:

[root@qsdb ~]# lsscsi -l
[0:0:0:0] disk DGC VRAID 0533 /dev/sda

state=running queue_depth=30 scsi_level=5 type=0 device_blocked=0 timeout=30
[0:0:1:0] disk DGC VRAID 0533 /dev/sdb

state=running queue_depth=30 scsi_level=5 type=0 device_blocked=0 timeout=30
[2:0:0:0] disk DGC VRAID 0533 /dev/sdd

state=running queue_depth=30 scsi_level=5 type=0 device_blocked=0 timeout=30
[2:0:1:0] disk DGC VRAID 0533 /dev/sde

state=running queue_depth=30 scsi_level=5 type=0 device_blocked=0 timeout=30
[4:2:0:0] disk IBM ServeRAID M5210 4.27 /dev/sdc

state=running queue_depth=256 scsi_level=6 type=0 device_blocked=0 timeout=90
[9:0:0:0] cd/dvd Lenovo SATA ODD 81Y3677 IB00 /dev/sr0

state=running queue_depth=1 scsi_level=6 type=5 device_blocked=0 timeout=30
使用 dd 命令设置 bs=2M 进行测试:
dd if=/dev/zero of=/dev/sdd bs=2M count=1000 oflag=direct

记录了 1000+0 的读入 记录了 1000+0 的写出 2097152000 字节 (2.1 GB) 已复制,10.6663 秒,197 MB/ 秒

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sdd 0.00 0.00 0.00 380.60 0.00 389734.40 1024.00 2.39 6.28 2.56 97.42

可以看到 2MB 的 IO 到达底层之后,会变成多个 512KB 的 IO,平均队列长度为 2.39,这个硬盘的利用率是 97%,MBPS 达到了 197MB/s。
(为什么会变成 512KB 的 IO,你可以去使用 Google 去查一下内核参数 max_sectors_kb的意义和使用方法 )也就是说增加队列深度,是可以测试出硬盘的峰值的。

5、Linux 系统中查看 IO 命令 iostat 详解
[root@rac01-node01 /]# iostat -xd 3
Linux 3.8.13-16.2.1.el6uek.x86_64 (rac01-node01) 05/27/2017 _x8664 (40 CPU)
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sda 0.05 0.75 2.50 0.50 76.59 69.83 48.96 0.00 1.17 0.47 0.14
scd0 0.00 0.00 0.02 0.00 0.11 0.00 5.25 0.00 21.37 20.94 0.05
dm-0 0.00 0.00 2.40 1.24 75.88 69.83 40.00 0.01 1.38 0.38 0.14
dm-1 0.00 0.00 0.02 0.00 0.14 0.00 8.00 0.00 0.65 0.39 0.00
sdc 0.00 0.00 0.01 0.00 0.11 0.00 10.20 0.00 0.28 0.28 0.00
sdb 0.00 0.00 0.01 0.00 0.11 0.00 10.20 0.00 0.15 0.15 0.00
sdd 0.00 0.00 0.01 0.00 0.11 0.00 10.20 0.00 0.25 0.25 0.00
sde 0.00 0.00 0.01 0.00 0.11 0.00 10.20 0.00 0.14 0.14 0.00
输出参数描述:
rrqms:每秒这个设备相关的读取请求有多少被 Merge 了(当系统调用需要读取数据的时候,VFS 将请求发到各个 FS,如果 FS 发现不同的读取请求读取的是相同 Block 的数据,FS 会将这个请求合并 Merge)wrqm/s:每秒这个设备相关的写入请求有多少被 Merge 了。rsec/s:The number of sectors read from the device per second.
wsec/s:The number of sectors written to the device per second.
rKB/s:The number of kilobytes read from the device per second.
wKB/s:The number of kilobytes written to the device per second.
avgrq-sz:平均请求扇区的大小,The average size (in sectors) of the requests that were issued to the device.
avgqu-sz:是平均请求队列的长度。毫无疑问,队列长度越短越好,The average queue length of the requests that were issued to the device.

await:每一个 IO 请求的处理的平均时间(单位是微秒毫秒)。这里可以理解为 IO 的响应时间,一般地系统 IO 响应时间应该低于 5ms,如果大于 10ms 就比较大了。这个时间包括了队列时间和服务时间,也就是说,一般情况下,await 大于 svctm,它们的差值越小,则说明队列时间越短,反之差值越大,队列时间越长,说明系统出了问题。svctm:表示平均每次设备 I / O 操作的服务时间(以毫秒为单位)。如果 svctm 的值与 await 很接近,表示几乎没有 I / O 等待,磁盘性能很好。如果 await 的值远高于 svctm 的值,则表示 I / O 队列等待太长,系统上运行的应用程序将变慢。%util:在统计时间内所有处理 IO 时间,除以总共统计时间。例如,如果统计间隔 1 秒,该设备有 0.8 秒在处理 IO,而 0.2 秒闲置,那么该设备的 %util = 0.8/1 = 80%,所以该参数暗示了设备的繁忙程度,一般地,如果该参数是 100% 表示磁盘设备已经接近满负荷运行了(当然如果是多磁盘,即使 %util 是 100%,因为磁盘的并发能力,所以磁盘使用未必就到了瓶颈)。

阿里云 2 核 2G 服务器 3M 带宽 61 元 1 年,有高配

腾讯云新客低至 82 元 / 年,老客户 99 元 / 年

代金券:在阿里云专用满减优惠券

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2024-07-25发表,共计7909字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中