Chinaunix首页 | 论坛 | 博客
  • 博客访问: 271335
  • 博文数量: 44
  • 博客积分: 2014
  • 博客等级: 上尉
  • 技术积分: 470
  • 用 户 组: 普通用户
  • 注册时间: 2006-03-23 15:00
文章分类

全部博文(44)

文章存档

2011年(3)

2010年(7)

2009年(33)

2008年(1)

分类: LINUX

2009-07-22 16:33:05

最近研究Linux Shell,Peal,C,Apache方面的东西
发现一个很有价值Shell脚本,自动分割大的文件为若干块。
网上流传的类似脚本都是调用split分割
而这个脚本调用 dd 直接把输入流输出为多个文件,技术上非常先进!
很有参考价值。
代码中有注释。
中文注释以 #?开头,如果需要,可以用
cat SCRIPT.sh | grep -v ‘^#\?’ > NEWSCRIPT.sh
删除全部中文注释
#!/bin/bash
 
#? 检测参数是否正确
if  [ -z "$2" -o ! -r "$1" ]; then
echo 'Usage: mince [file] [chunk size] "
exit 255
fi
 
#? Shell下获取文件大小经典方法
SIZE=`ls -l $1 | awk '{print $5}'`
 
if  [ $2 -gt $SIZE ] ;then
echo " chunk size is bigger then file size ,don't need to split "
exit 254
fi
   
#? 分割. 注意 由于最后一个文件块大小一定会小于CHUNK,必须用 conv=noerror 强制dd生成最后一个文件块.
CHUNK=$2
TOTAL=0
PASS=0
while [ $TOTAL -lt $SIZE ]; do
PASS=$((PASS+1)
echo "Creating $1.$PASS..."
dd conv=noerror if=$1 of=$1.$PASS bs=$CHUNK skip=$((PASS-1) count=1 2>/dev/null
TOTAL=$((TOTAL+CHUNK))
done
 
echo "Created $PASS chunks out of $1 ."
  
要重新组合数据块,用下面命令
cat `ls FILENAME.* | sort -n -t . +2` > FILENAME.complete
阅读(1601) | 评论(0) | 转发(1) |
给主人留下些什么吧!~~