Chinaunix首页 | 论坛 | 博客
  • 博客访问: 513123
  • 博文数量: 173
  • 博客积分: 4112
  • 博客等级: 上校
  • 技术积分: 1577
  • 用 户 组: 普通用户
  • 注册时间: 2010-02-26 10:12
文章分类

全部博文(173)

文章存档

2012年(1)

2010年(172)

我的朋友

分类: 系统运维

2010-04-01 15:32:45

假设apache日志格式为:
118.78.199.98 - - [09/Jan/2010:00:59:59 +0800] "GET /Public/Css/index.css HTTP/1.1" 304 - "" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; GTB6.3)"

在 apache日志中找出访问次数最多(负载最重)的几分钟内,哪几个IP访问的最多?
我写了两个脚本,但内容上大同小异
脚本1:
#!/bin/bash
# analysis apache access log
# histroy
# caoyameng  version0.1 2010/01/24

if (test -z $1) ;then
 read -p "Specify  logfile:" LOG
else
        LOG=$1
fi

if [ ! -e $LOG ];then
echo "I cann't find apache log file."
exit 0
fi

awk '{print  $4}' $LOG |cut -c 14-18|sort|uniq -c|sort -nr|head  >timelog
for   i in  `awk '{print $2}' timelog`
do

all=`grep $i timelog|awk '{print $1}'`
echo  " $i  $all"
IP=`grep $i $LOG| awk '{print $1}' |sort |uniq -c|sort -nr|head`
echo  "$IP"

done
rm  -f timelog

version 2
#!/bin/bash
# analysis apache access log
# histroy
# caoyameng  version0.2 2010/01/24

if (test -z $1) ;then
 read -p "Specify  logfile:" LOG
else
        LOG=$1
fi

if [ ! -e $LOG ];then
echo "I cann't find apache log file."
exit 0
fi

awk '{print  $4}' $LOG |cut -c 14-18|sort|uniq -c|sort -nr|head  >timelog
for (( i=1; i<=10; i=i+1 ))
do
num=`sed -n "${i}p" timelog|awk '{print $1}'`
time=`sed -n "${i}p" timelog|awk '{print $2}'`
echo  "####The No.$i "
echo  " "
echo  " $time   $num"
echo  " "
full=`grep $time $LOG| awk '{print $1}' |sort |uniq -c|sort -nr|head`
echo  "$full"
echo " "
done
rm  -f timelog

补充上三个小命令:
问题1:在apachelog中找出访问次数最多的10个IP。
awk '{print $1}' apache_log |sort |uniq -c|sort -nr|head
awk 首先将每条日志中的IP抓出来,如日志格式被自定义过,可以 -F 定义分隔符和 print指定列;
sort进行初次排序,为的使相同的记录排列到一起;
upiq -c 合并重复的行,并记录重复次数。
head进行前十名筛选;
sort -nr按照数字进行倒叙排序。
我参考的命令是:
  显示10条最常用的命令
sed -e "s/| /\n/g" ~/.bash_history | cut -d ' ' -f 1 | sort | uniq -c | sort -nr | head


问 题2:在apache日志中找出访问次数最多的几个分钟。
awk '{print $4}' apache.log |cut -c 14-18|sort|uniq -c|sort -nr|head
awk 用空格分出来的第四列是[09/Jan/2010:00:59:59;
cut -c 提取14到18个字符
剩下的内容和问题1类似。
问题3:在apache日志中找到访问最多的页面:
awk '{print $11}' apache_log |sed 's/^.*cn\(.*\)\"/\1/g'|sort |uniq -c|sort -rn|head
类似问题1和2,唯一特殊是用sed的替换功能将"" 替换成括号内的内容:"(/common /index.php)
阅读(499) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~