随着网站正式运行,我们可以通过通用的免费日志分析工具比如awstats获得一些实际访问网站的信息,例如每天ip量,pv量,用户所用的的浏览器,用
户所用的操作系统等,但是有时候希望通过手工方式从WEB日志文件中获得一些信息,下面列出了一些最近一段时间我经常在用的命令
获得访问前10位的ip地址
cat access.log|gawk ‘{print $1}’ |sort|uniq -c|sort -nr |head -10
访问次数最多的文件或页面
cat access.log|gawk ‘{print $11}’|sort|uniq -c|sort -nr
通过子域名访问次数,依据referer来计算,稍有不准
cat access.log | awk ‘{print $11}’ | sed -e ‘ s/http:\/\///’ -e ‘ s/\/.*//’ | sort | uniq -c | sort -rn | head -20
列出传输大小最大的几个文件
cat |awk ‘($7~/\.php/){print $10 ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -100
列出输出大于200000byte(约200kb)的页面以及对应页面发生次数
cat |awk ‘($10 > 200000 && $7~/\.php/){print $7}’|sort -n|uniq -c|sort -nr|head -100
如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面
cat |awk ‘($7~/\.php/){print $NF ” ” $1 ” ” $4 ” ” $7}’|sort -nr|head -100
列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat |awk ‘($NF > 60 && $7~/\.php/){print $7}’|sort -n|uniq -c|sort -nr|head -100
列出传输时间超过 30 秒的文件
cat |awk ‘($NF > 30){print $7}’|sort -n|uniq -c|sort -nr|head -20
列出当前服务器每一进程运行的数量,倒序排
ps -ef | awk -F ‘ ‘ ‘{print $8 ” ” $9}’ |sort | uniq -c |sort -nr |head -20
阅读(1612) | 评论(0) | 转发(0) |