Chinaunix首页 | 论坛 | 博客
  • 博客访问: 854602
  • 博文数量: 188
  • 博客积分: 4433
  • 博客等级: 上校
  • 技术积分: 1905
  • 用 户 组: 普通用户
  • 注册时间: 2008-11-14 07:14
个人简介

linux

文章分类

全部博文(188)

文章存档

2016年(6)

2015年(22)

2014年(18)

2013年(5)

2012年(125)

2011年(10)

2010年(2)

分类: LINUX

2014-01-18 16:37:48



iostat 结果解析



[root@20081006-1724 ~]# iostat -x

Linux 2.6.9-78.ELsmp (20081006-1724)    11/20/2009

avg-cpu:  %user   %nice    %sys %iowait   %idle

           0.19    0.00    0.04    0.03   99.73

Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util

sda          0.05  17.60  1.46  7.72   80.69  202.57    40.34   101.29    30.87     0.01    1.06   0.37   0.34

sda1         0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00    29.90     0.00    3.14   3.14   0.00

sda2         0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00    16.25     0.00    1.51   1.30   0.00

sda3         0.05  17.60  1.46  7.72   80.69  202.57    40.34   101.29    30.87     0.01    1.06   0.37   0.34

dm-0         0.00   0.00  1.46 25.28   80.32  202.26    40.16   101.13    10.57     0.36   13.56   0.13   0.34

dm-1         0.00   0.00  0.05  0.04    0.37    0.32     0.18     0.16     8.00     0.00    6.84   1.30   0.01



rrqm/s: 每秒进行 merge 的读操作数目。即 delta(rmerge)/s

wrqm/s: 每秒进行 merge 的写操作数目。即 delta(wmerge)/s

r/s: 每秒完成的读 I/O 设备次数。即 delta(rio)/s

w/s: 每秒完成的写 I/O 设备次数。即 delta(wio)/s

rsec/s: 每秒读扇区数。即 delta(rsect)/s

wsec/s: 每秒写扇区数。即 delta(wsect)/s

rkB/s: 每秒读K字节数。是 rsect/s 的一半,因为每扇区大小为512字节。

wkB/s: 每秒写K字节数。是 wsect/s 的一半。

avgrq-sz: 平均每次设备I/O操作的数据大小 (扇区)。即 delta(rsect+wsect)/delta(rio+wio)

avgqu-sz: 平均I/O队列长度。即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。

await: 平均每次设备I/O操作的等待时间 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)

svctm: 平均每次设备I/O操作的服务时间 (毫秒)。即 delta(use)/delta(rio+wio)

%util: 一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的。

即 delta(use)/s/1000 (因为use的单位为毫秒)



如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘

可能存在瓶颈。



比较重要的参数

%util:      一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的

svctm:   平均每次设备I/O操作的服务时间

await:    平均每次设备I/O操作的等待时间

avgqu-sz: 平均I/O队列长度



如果%util接近100%,表明i/o请求太多,i/o系统已经满负荷,磁盘可能存在瓶颈,一般%util大于70%,i/o压力就比较大,读取速度有
较多的wait.同时可以结合vmstat查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力
高)。

await 的大小一般取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近
await,说明 I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用得到的响应时间变慢。



形象的比喻

r/s+w/s 类似于交款人的总数

平均队列长度(avgqu-sz)类似于单位时间里平均排队人的个数

平均服务时间(svctm)类似于收银员的收款速度

平均等待时间(await)类似于平均每人的等待时间

平均I/O数据(avgrq-sz)类似于平均每人所买的东西多少

I/O 操作率 (%util)类似于收款台前有人排队的时间比例



设备IO操作:总IO(io)/s = r/s(读) +w/s(写) =1.46 + 25.28=26.74

平均每次设备I/O操作只需要0.36毫秒完成,现在却需要10.57毫秒完成,因为发出的请求太多(每秒26.74个),假如请求时同时发出的,可以这样计算平均等待时间:

平均等待时间=单个I/O服务器时间*(1+2+...+请求总数-1)/请求总数

每秒发出的I/0请求很多,但是平均队列就4,表示这些请求比较均匀,大部分处理还是比较及时







svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),

svctm 的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多

也会间接导致 svctm 的增加。await 的大小一般取决于服务时间(svctm) 以及

I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近 await,说明

I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用

得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑

更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU。



队列长度(avgqu-sz)也可作为衡量系统 I/O 负荷的指标,但由于 avgqu-sz 是

按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。



使用iostat查看磁盘io状态时,Device列显示了多个dm-xxx,但是不知道具体的设备路径。

   

    [root@server2 ~]# iostat 1

   

    avg-cpu: %user %nice %system %iowait %steal %idle

   

    0.00 0.00 0.00 0.00 0.00 100.00

   

    Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn

   

    sda 0.00 0.00 0.00 0 0

   

    sda1 0.00 0.00 0.00 0 0

   

    sda2 0.00 0.00 0.00 0 0

   

    sdb 0.00 0.00 0.00 0 0

   

    sdb1 0.00 0.00 0.00 0 0

   

    sdc 0.00 0.00 0.00 0 0

   

    hdc 0.00 0.00 0.00 0 0

   

    dm-0 0.00 0.00 0.00 0 0

   

    dm-1 0.00 0.00 0.00 0 0

   

    dm-2 0.00 0.00 0.00 0 0

   

    使用sar命令查看详细的dm-xxx信息

   

    [root@server2 ~]# sar -d 1

   

    Linux 2.6.18-274.el5 (server2.lanv.com) 07/06/2012

   

    01:00:26 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util

   

    01:00:27 PM dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev8-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev8-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev8-17 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev22-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev253-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev253-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    01:00:27 PM dev253-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

   

    可以知道dm-0、dm-1、dm-2的主设备号是253(是linux内核留给本地使用的设备号),次设备号分别是0、1、2,这类设备在/dev/mapper中

   

    [root@server2 mapper]# cd /dev/mapper/

   

    [root@server2 mapper]# ll

   

    total 0

   

    crw------- 1 root root 10, 63 Jul 6 11:14 control

   

    brw-rw---- 1 root disk 253, 0 Jul 6 11:25 vg01-lanv1

   

    brw-rw---- 1 root disk 253, 1 Jul 6 11:26 vg01-lanv2

   

    brw-rw---- 1 root disk 253, 2 Jul 6 11:26 vg01-lanv3

   

    以上信息也可以使用dmsetup命令查看

   

    [root@server2 mapper]# dmsetup ls

   

    vg01-lanv3 (253, 2)

   

    vg01-lanv2 (253, 1)

   

    vg01-lanv1 (253, 0)

   

    看到dm-0、dm-1、dm-2的详细设备名后,知道这三个设备是属于vg01逻辑卷组的lvm设备。

   

    [root@server2 mapper]# cd /dev/vg01/

   

    [root@server2 vg01]# ll

   

    total 0

   

    lrwxrwxrwx 1 root root 22 Jul 6 11:25 lanv1 -> /dev/mapper/vg01-lanv1

   

    lrwxrwxrwx 1 root root 22 Jul 6 11:26 lanv2 -> /dev/mapper/vg01-lanv2

   

    lrwxrwxrwx 1 root root 22 Jul 6 11:26 lanv3 -> /dev/mapper/vg01-lanv3

   

    现在可以知道dm-0、dm-1、dm-2的具体设备路径了
阅读(1807) | 评论(0) | 转发(0) |
0

上一篇:tcpdump

下一篇:通过ulimit改善系统性能

给主人留下些什么吧!~~