fio是測試IOPS的很是好的工具,用來對硬件進行壓力測試和驗證,支持13種不一樣的I/O引擎,包括:sync,mmap, libaio, posixaio, SG v3, splice, null, network, syslet, guasi, solarisaio 等等。html
簡單好用的磁盤性能測試工具linux
2015年10月20日 - 初稿ios
閱讀原文 - http://wsgzao.github.io/post/fio/git
擴展閱讀github
fio - http://freecode.com/projects/fio
雲主機磁盤I/O基準性能測試 - https://docs.ucloud.cn/testdata/io_uhost.html
fio man - http://linux.die.net/man/1/fioshell
工具:fio - Flexible IO Tester數據庫
官方網站:bash
http://freecode.com/projects/fiodom
http://brick.kernel.dk/snaps/異步
注意: 性能測試建議直接經過寫裸盤的方式進行測試,會獲得較爲真實的數據。但直接測試裸盤會破壞文件系統結構,致使數據丟失,請在測試前確認磁盤中數據已備份。
CentOS能夠直接使用yum安裝
#yum安裝 yum install libaio-devel fio #手動安裝 yum install libaio-devel wget http://brick.kernel.dk/snaps/fio-2.2.10.tar.gz tar -zxvf fio-2.2.10.tar.gz cd fio-2.2.10 make $ make install
fio分順序讀,隨機讀,順序寫,隨機寫,混合隨機讀寫模式。
filename: 指定文件(設備)的名稱。能夠經過冒號分割同時指定多個文件,如filename=/dev/sda:/dev/sdb。
directory: 設置filename的路徑前綴。在後面的基準測試中,採用這種方式來指定設備。
name: 指定job的名字,在命令行中表示新啓動一個job。
direct: bool類型,若是設置成true (1),表示不使用io buffer。
ioengine: I/O引擎,如今fio支持19種ioengine。默認值是sync同步阻塞I/O,libaio是Linux的native異步I/O。關於同步異步,阻塞和非阻塞模型能夠參考文章「使用異步 I/O 大大提升應用程序的性能」。
http://www.ibm.com/developerworks/cn/linux/l-async/
iodepth: 若是ioengine採用異步方式,該參數表示一批提交保持的io單元數。該參數可參考文章「Fio壓測工具和io隊列深度理解和誤區」。
http://blog.yufeng.info/archives/2104
rw: I/O模式,隨機讀寫,順序讀寫等等。
bs: I/O block大小,默認是4k。
size: 指定job處理的文件的大小。
numjobs: 指定job的克隆數(線程)。
time_based: 若是在runtime指定的時間還沒到時文件就被讀寫完成,將繼續重複知道runtime時間結束。
runtime: 指定在多少秒後中止進程。若是未指定該參數,fio將執行至指定的文件讀寫徹底完成。
group_reporting: 當同時指定了numjobs了時,輸出結果按組顯示。
filename=/dev/sdb1 #測試文件名稱,一般選擇須要測試的盤的data目錄 direct=1 #測試過程繞過機器自帶的buffer。使測試結果更真實 rw=randwrite #測試隨機寫的I/O rw=randrw #測試隨機寫和讀的I/O bs=16k #單次io的塊文件大小爲16k bsrange=512-2048 #同上,提定數據塊的大小範圍 size=5G #本次的測試文件大小爲5g,以每次4k的io進行測試 numjobs=30 #本次的測試線程爲30個 runtime=1000 #測試時間1000秒,若是不寫則一直將5g文件分4k每次寫完爲止 ioengine=psync #io引擎使用psync方式 rwmixwrite=30 #在混合讀寫的模式下,寫佔30% group_reporting #關於顯示結果的,彙總每一個進程的信息 lockmem=1G #只使用1g內存進行測試 zero_buffers #用0初始化系統buffer nrfiles=8 #每一個進程生成文件的數量 #順序讀 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=1000 -group_reporting -name=mytest #順序寫 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=1000 -group_reporting -name=mytest #隨機讀 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=1000 -group_reporting -name=mytest #隨機寫 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=1000 -group_reporting -name=mytest #混合隨機讀寫 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=100 -group_reporting -name=mytest -ioscheduler=noop #複製下面的配置內容,將directory=/path/to/test修改成你測試硬盤掛載目錄的地址,並另存爲fio.conf [global] ioengine=libaio direct=1 thread=1 norandommap=1 randrepeat=0 runtime=60 ramp_time=6 size=1g directory=/path/to/test [read4k-rand] stonewall group_reporting bs=4k rw=randread numjobs=8 iodepth=32 [read64k-seq] stonewall group_reporting bs=64k rw=read numjobs=4 iodepth=8 [write4k-rand] stonewall group_reporting bs=4k rw=randwrite numjobs=2 iodepth=4 [write64k-seq] stonewall group_reporting bs=64k rw=write numjobs=2 iodepth=4 #測試 fio fio.conf
#測試混合隨機讀寫 fio -filename=/dev/sda -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=100 -group_reporting -name=mytest1 mytest1: (g=0): rw=randrw, bs=16K-16K/16K-16K/16K-16K, ioengine=psync, iodepth=1 ... mytest1: (g=0): rw=randrw, bs=16K-16K/16K-16K/16K-16K, ioengine=psync, iodepth=1 fio-2.1.2 Starting 30 threads Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [18.8% done] [10192KB/3376KB/0KB /s] [637/211/0 iops] [eta 01m:22sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [19.8% done] [9808KB/3200KB/0KB /s] [613/200/0 iops] [eta 01m:21s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [34.7% done] [10496KB/3232KB/0KB /s] [656/202/0 iops] [eta 01m:06sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [35.6% done] [9680KB/3232KB/0KB /s] [605/202/0 iops] [eta 01m:05s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [37.6% done] [10016KB/2864KB/0KB /s] [626/179/0 iops] [eta 01m:03sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [38.6% done] [10320KB/3632KB/0KB /s] [645/227/0 iops] [eta 01m:02sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [39.6% done] [9744KB/3264KB/0KB /s] [609/204/0 iops] [eta 01m:01s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [63.4% done] [10224KB/3792KB/0KB /s] [639/237/0 iops] [eta 00m:37sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [64.4% done] [9184KB/3808KB/0KB /s] [574/238/0 iops] [eta 00m:36s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [68.3% done] [10128KB/3200KB/0KB /s] [633/200/0 iops] [eta 00m:32sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [69.3% done] [9872KB/3184KB/0KB /s] [617/199/0 iops] [eta 00m:31s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [71.3% done] [10528KB/2624KB/0KB /s] [658/164/0 iops] [eta 00m:29sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [72.3% done] [9696KB/2752KB/0KB /s] [606/172/0 iops] [eta 00m:28s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [73.3% done] [10624KB/2912KB/0KB /s] [664/182/0 iops] [eta 00m:27sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [74.3% done] [9312KB/2832KB/0KB /s] [582/177/0 iops] [eta 00m:26s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [95.0% done] [10128KB/3792KB/0KB /s] [633/237/0 iops] [eta 00m:05sJobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [96.0% done] [8320KB/3904KB/0KB /s] [520/244/0 iops] [eta 00m:04s]Jobs: 30 (f=30): [mmmmmmmmmmmmmmmmmmmmmmmmmmmmmm] [100.0% done] [9264KB/3536KB/0KB /s] [579/221/0 iops] [eta 00m:00s] mytest1: (groupid=0, jobs=30): err= 0: pid=17792: Tue Nov 12 10:55:58 2013 read : io=948896KB, bw=9475.1KB/s, iops=592, runt=100138msec clat (usec): min=67, max=796794, avg=49878.72, stdev=59636.00 lat (usec): min=68, max=796794, avg=49879.01, stdev=59636.00 clat percentiles (msec): | 1.00th=[ 4], 5.00th=[ 7], 10.00th=[ 9], 20.00th=[ 12], | 30.00th=[ 16], 40.00th=[ 22], 50.00th=[ 29], 60.00th=[ 39], | 70.00th=[ 53], 80.00th=[ 76], 90.00th=[ 120], 95.00th=[ 165], | 99.00th=[ 293], 99.50th=[ 351], 99.90th=[ 494], 99.95th=[ 553], | 99.99th=[ 701] bw (KB /s): min= 20, max= 967, per=3.38%, avg=320.53, stdev=116.83 write: io=380816KB, bw=3802.1KB/s, iops=237, runt=100138msec clat (usec): min=64, max=120607, avg=1801.07, stdev=5409.97 lat (usec): min=65, max=120610, avg=1803.86, stdev=5409.96 clat percentiles (usec): | 1.00th=[ 69], 5.00th=[ 73], 10.00th=[ 77], 20.00th=[ 81], | 30.00th=[ 84], 40.00th=[ 87], 50.00th=[ 90], 60.00th=[ 113], | 70.00th=[ 724], 80.00th=[ 3248], 90.00th=[ 4384], 95.00th=[ 5344], | 99.00th=[33536], 99.50th=[41728], 99.90th=[59136], 99.95th=[68096], | 99.99th=[112128] bw (KB /s): min= 17, max= 563, per=3.52%, avg=133.68, stdev=75.04 lat (usec) : 100=16.41%, 250=3.47%, 500=0.10%, 750=0.12%, 1000=0.23% lat (msec) : 2=0.86%, 4=4.57%, 10=13.39%, 20=16.08%, 50=22.27% lat (msec) : 100=12.87%, 250=8.49%, 500=1.08%, 750=0.06%, 1000=0.01% cpu : usr=0.02%, sys=0.07%, ctx=83130, majf=0, minf=7 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=59306/w=23801/d=0, short=r=0/w=0/d=0 Run status group 0 (all jobs): READ: io=948896KB, aggrb=9475KB/s, minb=9475KB/s, maxb=9475KB/s, mint=100138msec, maxt=100138msec WRITE: io=380816KB, aggrb=3802KB/s, minb=3802KB/s, maxb=3802KB/s, mint=100138msec, maxt=100138msec Disk stats (read/write): sda: ios=59211/24192, merge=0/289, ticks=2951434/63353, in_queue=3092383, util=99.97%
測試結果如上,主要關注bw和iops結果
bw:磁盤的吞吐量,這個是順序讀寫考察的重點
iops:磁盤的每秒讀寫次數,這個是隨機讀寫考察的重點
read : io=948896KB, bw=9475.1KB/s, iops=592, runt=100138msec write: io=380816KB, bw=3802.1KB/s, iops=237, runt=100138msec
順序讀寫 (吞吐量,經常使用單位爲MB/s):文件在硬盤上存儲位置是連續的。
適用場景:大文件拷貝(好比視頻音樂)。速度即便很高,對數據庫性能也沒有參考價值。
4K隨機讀寫 (IOPS,經常使用單位爲次):在硬盤上隨機位置讀寫數據,每次4KB。
適用場景:操做系統運行、軟件運行、數據庫。
如下是使用通用I/O測試工具「fio」,並在指定數據塊大小「4K、512K」、隊列深度爲「128」的條件下,對「SAS」以及「SSD」這兩種機型磁盤進行的I/O基準性能測試所得出的測試數據。
測試1. 順序讀/寫512K
測試2. 隨機讀/寫 4K
塊大小:4kb / 512kb
隊列深度:128
#fio.conf配置 [global] ioengine=libaio iodepth=128 time_based direct=1 thread=1 group_reporting randrepeat=0 norandommap numjobs=32 timeout=6000 runtime=120 [randread-4k] rw=randread bs=4k filename=/dev/sdb #注:/dev/sdb是目標測試磁盤的設備名稱 rwmixread=100 stonewall [randwrite-4k] rw=randwrite bs=4k filename=/dev/sdb stonewall [read-512k] rw=read bs=512k filename=/dev/sdb stonewall [write-512k] rw=write bs=512k filename=/dev/sdb stonewall #使用方法 shell$> fio fio.conf