一、http_load
程序非常小,解压后也不到100K
http_load以并行复用的方式运行,用以web的吞吐量与负载。但是它不同于大多数压力工
具,它可以以一个单一的进程运行,一般不会把客户机搞死。还可以测试HTTPS类的网站请求。
地址:
安装很简单
#tar zxvf http_load-12mar2006.tar.gz
#cd
http_load-12mar2006
#make && make install
命令格式:http_load
-p 并发访问进程数 -s 访问时间 需要访问的URL文件
参数其实可以自由组合,参数之间的选择并没有什么限制。比如你写成http_load
-parallel 5 -seconds
300 urls.txt也是可以的。我们把参数给大家简单说明一下。
-parallel
简写-p :含义是并发的用户进程数。
-fetches 简写-f :含义是总计的访问次数
-rate 简写-p
:含义是每秒的访问频率
-seconds简写-s :含义是总计的访问时间
准备URL文件:urllist.txt,文件格式是每行一个URL,URL最好超过50-100个测试效果比较好.文件格式
如下:
security/vps-backup-web-mysql.html
例如:
http_load -p 30 -s 60 urllist.txt
参数了解了,我们来看运行一条命令来看看它的返回结果
命令:% ./http_load -rate 5 -seconds 10
urls说明执行了一个持续时间10秒的测试,每秒的频率为5。
49 fetches, 2 max parallel, 289884 bytes,
in 10.0148 seconds5916 mean bytes/connection4.89274
fetches/sec, 28945.5
bytes/secmsecs/connect: 28.8932 mean, 44.243 max, 24.488 minmsecs/first
-response: 63.5362 mean, 81.624 max, 57.803 minHTTP response codes: code 200 --
49
结果分析:
1.49 fetches, 2 max parallel, 289884 bytes, in 10.0148
seconds
说明在上面的测试中运行了49个请求,最大的并发进程数是2,总计传输的数据是289884bytes,运行的时间是10.0148秒
2.5916
mean bytes/connection说明每一连接平均传输的数据量289884/49=5916
3.4.89274 fetches/sec,
28945.5 bytes/sec
说明每秒的响应请求为4.89274,每秒传递的数据为28945.5 bytes/sec
4.msecs/connect: 28.8932 mean, 44.243 max, 24.488 min说明每连接的平均响应时间是28.8932
msecs
,最大的响应时间44.243 msecs,最小的响应时间24.488 msecs
5.msecs/first-response: 63.5362 mean, 81.624 max, 57.803 min
6、HTTP
response codes: code 200 -- 49 说明打开响应页面的类型,如果403的类型过多,那可能
要注意是否系统遇到了瓶颈。
特殊说明:
测试结果中主要的指标是 fetches/sec、msecs/connect 这个选项,即每秒能够响应的查询次数,
用这个指标来衡量性能。似乎比
apache的ab准确率要高一些,也更有说服力一些。
Qpt-每秒响应用户数和response time,每连接响应用户时间。
测试的结果主要也是看这两个值。当然仅有这两个指标并不能完成对性能的分析,我们还需要对服务器的
cpu、men进行分析,才能得出结论
二、webbench
webbench是Linux下的一个网站压力测试工具,最多可以模拟3万个并发连接去测试网站的负载能力。
地址可以到google搜,我这里给出一个
地址:
这个程序更小,解压后不到50K,呵呵
安装非常简单
#tar zxvf webbench-1.5.tar.gz
#cd
webbench-1.5
#make && make install
会在当前目录生成webbench可执行文件,直接可以使用了
用法:
webbench -c 并发数 -t 运行测试时间
URL
如:
webbench -c 5000 -t 120
index.php
这个表示同时处理1000个请求并运行100次index.php文件.
四、Siege
一款开源的压力测试工具,可以根据配置对一个WEB站点进行多用户的并发访问,记录每个用户所有请求过程的相应时间,并在一定数量的并发访问下重复进行。
官方:
Siege下载:
解压:
# tar -zxf siege-2.67.tar.gz
进入解压目录:
# cd
siege-2.67/
安装:
#./configure ; make
#make install
使用
siege -c 200 -r 10 -f example.url
-c是并发量,-r是重复次数。
url文件就是一个文本,每行都是一个url,它会从里面随机访问的。
example.url内容:
结果说明
Lifting the server siege… done.
Transactions: 3419263 hits
//完成419263次处理
Availability: 100.00 % //100.00 % 成功率
Elapsed time:
5999.69 secs //总共用时
Data transferred: 84273.91 MB //共数据传输84273.91
MB
Response time: 0.37 secs //相应用时1.65秒:显示网络连接的速度
Transaction
rate: 569.91 trans/sec //均每秒完成 569.91 次处理:表示服务器后
Throughput: 14.05 MB/sec
//平均每秒传送数据
Concurrency: 213.42 //实际最高并发数
Successful transactions:
2564081 //成功处理次数
Failed transactions: 11 //失败处理次数
Longest
transaction: 29.04 //每次传输所花最长时间
Shortest transaction: 0.00 //每次传输所花最短时间