• 博客访问: 678552
  • 博文数量: 165
  • 博客积分: 46
  • 博客等级: 民兵
  • 技术积分: 3967
  • 用 户 组: 普通用户
  • 注册时间: 2013-01-11 13:45
  • 认证徽章:
个人简介

现任职北京某互联网公司运维经理,高级架构师,涉足互联网运维行业已经超过10年。曾服务于京东商城,互动百科等互联网公司,早期运维界新星。 长期专研,C语言开发,操作系统内核,大型互联网架构。http://www.bdkyr.com

文章分类
微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

订阅
热词专题

分类: Python/Ruby

原文地址:不再担心日志文件过大:通用日志滚动脚本 作者:Aquester

不用再担心脚本输出的日志文件过大爆满磁盘,log_rotater.sh可让你高枕无忧,肆无忌惮地重定向日志到文件中。

#!/bin/sh
# Writed by yijian on 2012/7/22
# 本脚本功能:
# 1) 实现一个通用的按大小的日志滚动
# 2) 要求日志文件扩展名为“.log”,否则请稍修改代码
# 3) 支持处理多个目录下的日志文件,如果需要使用这个功能,
#    必须启用dirs_list参数
#
# 为何要写一个这样的东东?
# 答:因为在日常中,经常发现程序输出重定向,
#     或脚本的输出,如果不处理的话,就可能导致
#     单个文件过大,甚至爆满整个磁盘;而每套脚本
#     都重复写一个日志滚动逻辑,显然是件无聊的事,
#     甚至一些人懒得做处理,日子一久,就会发现一个超大的
#     日志文件,本脚本希望可以帮助解决这个问题,让大家无
#     后顾之忧。
#
# 使用方法:
# 1) 把脚本复制到日志文件所在目录,
#    然后以nohup ./log_rotater.sh > /dev/null & 等方式启动脚本即可
# 2) 除了上面的方法,也可以将log_rotater.sh任何目录下,
#    但这个时候,应当将backup_dir的值修改为日志文件所在目录
#
# sudo dpkg-reconfigure dash
# 新版本Ubuntu默认使用dash作为shell,
# 这个shell功能较弱,不支持数组等,但速度快,
# 可采取如下办法检测是何种shell:
# ls -l `which sh`

# 可根据需要修改以下参数
backup_count=10 # 日志滚动的个数
backup_size=$((1024 * 1024 * 200)) # 单个日志文件大小
backup_interval=60 # 检测的间隔时间,单位为秒

# 如果dirs_list指定的文件存在,则从dirs_list中读取目录,
# 否则仅处理backup_dir指定的单个目录
# 往dirs_list指定文件增减目录时,不需要重启log_rotater.sh
backup_dir=. # 日志文件所在目录
dirs_list=./dirs.list # 存储目录列表的文件,要求一行一个目录

# 处理单个目录下的日志滚动
scan_single_dir()
{
dir=$1
cd $dir
if test $? -ne 0; then
return
fi

# 用到了awk给外部变量赋值的特性
eval $(ls -l --time-style=long-iso *.log 2>/dev/null|awk '{ printf("filesize=%s\nfiledate=%s\nfilename=%s\n", $5,$6,$8); }')
if test $? -ne 0; then
return
fi
if test -z $filename; then
return
fi

if test $filesize -gt $backup_size; then
file_index=$(($backup_count - 1))
while test $file_index -gt 1; do
new_filename="${filename}.$file_index"
old_filename="${filename}.$(($file_index - 1))"
if test -f "$old_filename"; then
mv "$old_filename" "$new_filename"
fi
file_index=$(($file_index - 1))
done
    # 这里需要使用truncate,而不能使用mv,
        # 因为需要保持文件的inode不变
cp "$filename" "${filename}.1"
truncate -s 1024 "$filename"
fi
cd -
sleep 1
}

# 循环检测
while true; do
if test ! -f $dirs_list; then
scan_single_dir $backup_dir
else
while read dirpath
do
scan_single_dir $dirpath
done < $dirs_list
fi

sleep $backup_interval
done


阅读(10843) | 评论(2) | 转发(0) |
给主人留下些什么吧!~~

woaimaidong2016-06-08 11:39:26

感谢您的宝贵建议。

转载目的是觉得有值得借鉴的地方。不同环境下的日志切割自有对应的方法,我们会根据实际情况作出最佳选择。

wojiaohesen2016-06-03 17:04:57

真不知道大家为啥一遍又一遍的写这种垃圾脚本, 你难道不用logrotate吗?

评论热议
请登录后评论。

登录 注册