Chinaunix首页 | 论坛 | 博客
  • 博客访问: 577835
  • 博文数量: 74
  • 博客积分: 1415
  • 博客等级: 中尉
  • 技术积分: 712
  • 用 户 组: 普通用户
  • 注册时间: 2011-07-21 16:37
文章分类

全部博文(74)

文章存档

2012年(31)

2011年(43)

分类: LINUX

2012-01-20 09:42:58

一、 变量和运算符
1.set
命令 可以查看和设置本地变量
2.readonly
查看本地只读变量
readonly variable-name
设置变量为只读变量
3.
环境变量的设置在$HOME/.bash_profile (/etc/profile)
4.export variable-name=value
设置变量为环境变量
5.env
查看所有环境变量
6.
变量替换:
${var-name}
显示实际值到var-name
${var-name:+value}
如果设置了var-name,则显示其值为value,否则为空
${var-nmae:?value}
如果未设置var-name,显示用户定义错误信息value
${var-name:-value}
如果未设置var-name,显示其值为value
${var-nmae:=value}
如果未设置var-name,设置其值,并显示
7.unset
取消变量
8.
位置变量
$0       $1           $2           $3     $4  
脚本名   第一个参数 A   第二个参数 B   。。。。C   。。。。D    
注意:$10是表示第一个参数后面加上“0”,第10个参数可以通过shift命令得到
可用shift 或者shift[n]来表示左移参数的位置
shift
shift[1]相同,都是左移一个位置(从$1开始算,$0-脚本名是不会边的),如上图则$1的 值 为   B$2的值为C......
$#
参数的个数($0不算在内)
$*
$@ 都是列出全部参数,下面举例说明它们的差异:
比如在命令行中输入 ./test.sh A "B C" D
$*$@都为 A B C D
但是如果用了软引用之后:
"$@"
可得到 "A" "BC" "D"三个字段
"$*"则得到"A B C D"一个字段
9.
标准变量(大部分都是环境变量):
EXINIT
:保存使用vi初始化选项,如EXINIT='set nu tab=4';exprot EXINIT
IFS
:域分隔符,默认是空格,可改边IFS=: IFS=':'
HOME:
主目录
LOGNAME
:登录名
MAILCHECK
:每隔多长时间检查是否有邮件
MAILPATH
:用于多个邮箱时查看MAIL存储在哪几个文件中
TERM
:终端类型
PATH
:指定了当用户输入命令时linux搜索程序的目录由冒号:分隔,shell将按PATH中给出的顺序搜 索这些目录。找到的第一个与命令名称一致的可执行文件将被执行
TZ
:时区
PS1
:主提示符,其缺省值 '[\u@\h \w]\$ '
u:
用户 h:主机名 w:当前的目录。最后的"$"是普通用户的提示符,特权用户是"#"
PS2:
辅助提示符,一行中若需用多个命令时的提示符,缺省是">",如果用户在行末输入"\",然后 回车, 则会有改符号出现。
PWD
:当前运行的进程号
$$:
当前运行的进程号
$!
后台运行的最后一个进程的ID
$-
显示shell使用的当前选项,与set相同
$?
显示最后命令的退出状态,0表示没有错误,其他表示错误。
10.
影响变量的命令
1declare   设置或者显示变量
  -f    
只显示函数名
  -r    
创建只读变量
  -x    
创建转出变量
  -i    
创建整数变量
+代替-可以颠倒选项的含义(r不能颠倒)
2export 创建传给子shell的变量(创建环境变量)
  --
表明选项结束,所有的后续参数都是实参
  -f
表明在-对中的名字是函数名
  -n
把全局变量转换成局部变量,命令的变量不再传给子shell
  -p
显示全局变量列表
(3)readonly
用于显示或者设置只读变量
  --
表明选项结束
  -f
创建只读变量
(4)typeset  
用于显示或设置变量,是declare的同义词
5unset 取消变量的定义
--
表明选项结束
-f
删除只读变量(但不能取消从shell环境中删除指定的变量和函数,如PATHPS1PDIDEUIDPIDUID等)
11.
双引号:
使用双引号可引用除字符$,`,\ 外的任意字符和字符串
12.
单引号:
单引号与双引号不同的是shell会忽略任何引用值。换句话来说,如果屏蔽了其特殊含义,会将引号里所有的字符,包括引号作为一个字符串
13.
反引号:
设置系统命令的输出到变量。shell将反引号里的命令的内容作为一个系统命令并执行其内容
14.
反斜杠:
 
如果一个字符有特殊的意义,反斜杠可以屏蔽其含义,有特殊含义的字符有:& * + ^ $ ` " | ?
15.
运算符:
按位运算符有:~ ,<<,>>,^>|,&
$[ ]
表示对方括号中的表达式求值 $[ 2+8 ].(注意[]内左右都必须留空格)
$[ 2#111+1 ]=8
表示二进制的1111+1
运算符的优先级
以下级别高的优先级高
13
级:+,- (正负)
12
级:!,~ (逻辑非,按位取反)
11
级:*,/,% (乘,除,取摸)
10
级:+,- (加减)
9
:<<,>>按位左移动,右移
8
级:<=,>=,<,> (小于等于,大于等于,小于,大于)
7
级:==,!= (等于,不等于)
6
级:& 按位与
5
级:^ 按位异或
4
| 按位或
3
&& 逻辑与
2
|| 逻辑或
1
=,+=,-=,*=,/=,%=,|=,<<=,>>=
         
二、Shell输入与输出
1.echo
命令可以显示文本行或者变量,或者把字符串输入到文件
echo [option] string
-e
解析转义字符,
 
转义符包括(
\c,
回车不换行
\f,
禁止
\t,
跳格
\n)
回车换行
-n
回车不换行,linux系统默认回车换行
2.read
从键盘或者文件的某一行文本中读如信息,并将其赋给一个变量
read varible1 varible2
如果只指定了一个变量,那么read将会把所有的输入赋给该变量,直到遇到第一个文件结束符或回车;如果给出了多个变量,它们按吮吸分别赋给不同的变量,。shell将用空格作为变量之间的分隔符
举例说明:在shell脚本中有read A B C命令行,而在提示的命令行中输入1 2 3,则A=1B=2C=3
3.cat
可以用来显示文件内容、创建文件,还可以用它来显示控制字符。
cat |options|filename1..filename2...
-v
显示控制字符
使用cat命令时要注意,它不会在文件分页符处停下来,它会一下显示完整个文件。如果希望每次显示一页,可以使用more命令或者把cat命令的输出通过管道传递给另外一个具有分页功能的命令(more,less)中。
cat
命令举例:
cat myfile1 myfile2 myfile3>myfile123;
cat myfile123|more
分页显示
cat -v dos.txt
会出现“^M”等控制字符,这是在windows下的编辑器留下的
4.
管道 可以通过管道把一个命令的输出作为另一个命令的输入
举例说明:df -k |awk '{print $1}'|grep -v "Filesystem"
df
:显示所有文件系统对i节点和磁盘块的使用情况
awk:
浏览和抽取信息
grep
:文本过滤
显示所有文件系统对i接点和磁盘块的使用情况信息中的第一列并不含有"Filesystem"的信息

5.tee
: 把输出的一个副本输送到标准输出,另一个副本拷贝到相应的文件中
tee -a file
这个命令一般用于管道之后。
举例说明:
cat file|tee file.out
file中的信息输出到屏幕并拷贝到file.out
6.exec
exec命令可以用来代替当前shell;换句话说,并没有启动子shell,使用这一命令时任何现有环境都会   被清除,并重新启动一个shell
exec command
其中的command通常是一个shell脚本
对文件描述符操作的时候(也只有在这时),它不会覆盖你当前的shell
举例说明:
exec **.sh
会重新登录并清除环境变量
7.
标准输入、输出和错误
shell中执行命令时,每个进程都和三个打开的文件相联系,并使用文件描述符来引用这些文件。由于文件描述符不容易记忆,shell同时也给出了相应的文件名。
       
文件         文件描述符  
输入文件----标准输入       0(缺省是键盘,也可以是文件或者其他命令的输出)  
输出文件---标准输出       1(缺省是屏幕,也可以是文件)  
错误输出文件--标准错误   2(缺省是屏幕,也可以是文件)  
系统中实际有12个文件描述符,可以任意使用文件描述符3-9
8.
文件重定向 改变程序运行的输入来源或输出地点
  command > filename
把把标准输出重定向到一个新文件中
  command >> filename
把把标准输出重定向到一个文件中(追加)
  command 1 > fielname
把把标准输出重定向到一个文件中
  command > filename 2>&1
把把标准输出和标准错误一起重定向到一个文件中
  command 2 > filename
把把标准错误重定向到一个文件中
  command 2 >> filename
把把标准输出重定向到一个文件中(追加)
  command >> filename 2>&1
把把标准输出和标准错误一起重定向到一个文件中(追加)
  command < filename >filename2
command命令以filename文件作为标准输入,以filename2文件作为标准输出
  command < filename
command命令以filename文件作为标准输入
  command << delimiter
把从标准输入中读入,直至遇到delimiter分界符
  command <&m
把把文件描述符m作为标准输入
  command >&m
把把标准输出重定向到文件描述符m
  command <&-
把关闭标准输入
 
重定向的几个注意点:
 
重定向中为保护原来的文件不被覆盖可以用 set -o noclobber 命令来限制
 
set +o noclobber来取消限制,如果不取消的话也可以强制重定向
  command >| file
  cat file
会清空file中的内容,因为shell会先清空stdoutstderr的管道。
    cat >file
会造成死循环,因为它是一行行读出来的,永远都没有结束符
9.
合并标准输出和标准错误
 
合并标准输出和标准错误的时候,切记shell是用左至右分析相应的命令
举例说明:
grep "hi" test.txt >test.out 2>&1
标准输出和错误输出都输入到标准输出中
10.
使用文件描述符
 
举例说明:
  exec 3<&0 0设置3为标准输入 name.txt的内容输入到标准输入
 
此时的exec不会清除环境变量,也不会重新登录,覆盖当前的sehll

         
三、流控制结构
1.if then else
语句
if
条件1         #如果条件1为真
then           #
那么
  command1       #
执行命令1
elif
条件2       # 如果条件2为真
then           #
那么
  command2       #
执行命令2
else           #
如果条件1和条件2都不成立
  command3
执行命令3
fi           #
完成(if 语句一定要以fi结束)
举例说明:
if [ "13" -lt "11"]   #
如果13小于11
then         #
那么
    echo "13<11"   #
输出"13<11"
elif["13" -lt "12"]   #
如果13小于12
then         #
那么
    echo "13<12"   #
输出"13<12"
else         #
否则
    echo "13>=12"   #
输出"13>=12"
2.case
语句
case
in
模式1     #如果模式1匹配
 
命令1     #执行命令1
   
;;
模式2     #如果模式2匹配
   
命令2   #执行命令2
    ;;
*
      #如果以上模式都不匹配
   
命令3   #执行命令3
    ;;
esac       #
结束case语句
case
取值后面必须为单词in,每一模式必须以右括号结束。取值可以为变量或常数。匹配发现取值符合某一模式后,其间所有命令开始执行直至;;。模式匹配符号*表示匹配任意字符。[。。]表示类或者范围中的任意字符。
举例说明:
case $A in
  1)      
 #如果A的值为1
  echo "A =1"   #
输出“A=1”
  ;;
  2)         #
如果A的值为2
    echo "A=2"   #
输出“A=2”
    ;;
    [34])       #
如果A的值为34
    echo "A=3|4"   #
输出“A=3|4”
    ;;
    esac       #
结束
3.for
循环
  for
变量名 in 列表
  do
   
命令1
   
命令2
  done
当变量值在列表里,for 循环即执行一次所有命令,使用变量名访问列表取值。命令可为任何有效的shell命令和语句。变量名为任何单词。in列表用法是可选的,如果不用它,for循环使用命令行的位置参数。in列表可以包含替换,字符串和文件名
举例说明:
for loop in 1 2 3 4 5  
      #1 2 3 4 5列表中循环(5次)
do      
        #开始执行命令
  echo "hello"  
       #执行命令
done               #
完成

for loop in "one two three"
    #当成一个元素只循环一次
do
  echo $loop
done               #
输出 one two three 一行
for loop in one two three     #
三次循环
do
  echo $loop
done
#
输出 one
  two
  three
列表可以是文件,如:for loop in `cat myfile`
4.until
循环
until
条件
do
 
命令1
 
命令2
done
条件可为任何测试条件,若刚开始条件就为真,则不执行循环。
5.while
循环
while
命令
do
   
命令1
   
命令2
    ......
done
举例说明:while read LINE 每次读取myfile 中的一行
      do
        echo $LINE     #
输出每行的信息
      done
6.break
控制
break
 [n]            #跳出n层循环
举例说明:
for loop in 1 2 3
done
echo ${loop}
    for loop in one two three
    do
    echo ${loop}
    //break /break 2 /continue #
这三个命令替换测试
    echo ${loop}+
    done
    done
若为break,则输出 1 one 2 one 3 one
若为break 2 则输出 1 one
若为continue 则输出1 one two three 2 one two three 3 one two three (每次输出都有换行)注意:echo ${loop}+没有执行
7.continue
控制
强制进入下一次循环 如上例子
             
四、文本过滤
1.
正则表达式
1)正则表达式一般用来描述文本模式的特殊用法,由普通字符(例如字符a-z)以及特殊字符(称为元字符,如/*?等)组成。
2)基本元字符集及其含义
    ^
:只匹配行首。   ^a 匹配以a开头的行abc,a2e,a12,aaa,......
    $
:只匹配行尾。   ^a 匹配以a结尾的行bca,12a,aaa,.......
    *
:匹配0个或多个此单字符。 如(a)* 匹配 空,a,aa,aaa,....
    []
:只匹配[]内字符。可以是一个单字符,也可以是字符序列,用","将里面要匹配的不同字符串分开。也可以使用-来表示[]内字符序列的范围,如[1-5]表示[12345]
    \
:只用来屏蔽一个元字符的特殊含义。 如\*,\',\",\|,\+,\^,\.
   
。:(点)只匹配任意单字符。
    pattern\{n\}
:只用来匹配前面pattern出现的次数.n为次数。如a\{2\}匹配aa.
    pattern\{n,\}
:含义同上,但次数最少为n.a\{2,\}匹配aa,aaa,aaaa,.....
    pattern\{n,m\}
:含义同上,但次数在nm之间。如a\{2,4\}匹配aa,aaa,aaaa三个
(3)
举例说明:
    ^$
:匹配空行
    ^.$
:匹配包含一个字符的行
  \*\.pas
:匹配以*.pas结尾的所有字符或文件
  [0123456789]
[0-9] :假定要匹配任意一个数字
  [a-z]
:任意小写字母
  [A-Za-z]
:任意大小写字母
  [S,s]
:匹配大小写S
  [0-9]\{3\}\.[0-9]\{3\}\.[0-9]\{3\}\.[0-9]\{3\}
:匹配IP地址 [0-9]\{3\}三个0-9组成的字符串;\. :匹配点(注意这里点是特殊的字符,所以要用"\"来屏蔽其含义)
2.find
介绍
1)查找具有某些特征文件的命令,可遍历当前目录甚至于整个文件系统来查看某些文件或目录,其遍历大的文件系统时一般放在后台执行。
2find命令的一般形式
    find pathname -options [-print -exec -ok]
    -pathname :find
命令所查找的目录路径。如用"."来表示当前的目录,用/来表示系统根目录
    -print :find
命令将匹配的文件输出到标准输出
    -exec: find
命令对匹配的文件执行该参数所给出的shell命令,相应的命令形式为
    'command'{} \; (
注意{}\之间的空格)
    -ok
-exec的作用相同,只不过以一种更为安全的模式来执行该参数所给出的shell命令,在执行每一个命令之前,都会给出提示,让用户来确定是否执行。
  options
有如下几种:
  -name
:按照文件名查找文件
  -perm
:按照文件权限来查找文件
  -user
:按照文件属主来查找文件
  -group
:按照文件所属的组来查找文件
  -mtime -n +n
按照文件的更改时间来查找文件,-n表示文件更改时间距现在n天以内,+n表示文件更改时间距现在n天以前。find命令还有-atime -ctime选项,但它们都和-mtime选项相似。
  -size n[c]
查找文件长度为n块的文件,带有c时表示文件长度以字节计。
  -nogroup
查找无有效所属组的文件,即该文件所属的组在/etc/groups中不存在
  -newer file1 !file2
查找更改时间比文件file1新但比文件file2旧的文件
  -depth
先查找指定目录有无匹配文件,若无则再在子目录中查找
  -type
查找某一类型的文件,如
    b :
块设备文件
    d
:目录
    e
:字符设备文件
    p
;管道文件
    l
:符号链接文件
    f
:普通文件
3find命令举例
    find -name "*.txt" -print
查找txt结尾的文件并输出到屏幕上
    find /cmd ".sh" -print
查找/cmd目录下所有sh文件,并输出
    find . -perm 755 -print
查找当前目录下权限为755的文件,并输出
    find `pwd` -user root -print
查找当前目录下属主为root的文件,并输出
    find ./ -group sunwill -print
查找当前目录下所属主是sunwill的文件
    find /var -mtime -5 -print
查找/var目录下更改时间为5天内的所有文件
    find /var -mtime +5 -print
查找/var目录下更改时间为5天以前的所有文件
    find /var -newer "myfile1" ! -newer "myfile2" -print
查找/var目录下比myfile1新,但是比myfile2旧的所有文件。
    find /var -type d -print
查找/var目录下所有目录
    find /var -type l -print
查找/var目录下所有的符号链接文件。
    find . -size +1000000c -print
查找当前目录下大于1000000字节的文件
    find / -name "con.file" -depth -print
查找根目录下有无"con.file",若无则在其子目录中查找
    find . -type f -exec ls -l {} \;
查找当前目录下是否有普通文件,若有则执行ls -l
 
4xargs命令
   
在使用find命令的-exec选项处理匹配到的文件时,find命令将所有匹配到的文件一起传递给exec。不幸的是,有些系统对能够传递给exec的命令长度有限制,这样find命令运行几分钟之后就算出现溢出错误。错误信息通常是参数列太长参数列溢出。这就是xargs的用处所在,特别是与find命令一起使用,exec会发起多个进程,而xargs会多个,只有一个
    find ./ -perm -7 -print | xargs chmod o-w
查找权限为7的文件并传递给chmod处理

3.grep
介绍
(1)grep
的一般格式为 grep [options] 基本正则表达式 [文件]
   
字符串参数最好采用是双引号括,一是以防被误解为shell命令,二是可以用来查找多个单词组成的字符串
    -c
:只输出匹配行的记数
    -i
:不区分大小写(只适用于单个字符)
    -h
:查询多个文件时不显示文件名
    -H
:只显示文件名
    -l
:查询多文件时只输出包含匹配字符的文件名
    -n
:只显示匹配行及其行号
    -s
:不显示不存在或无匹配文本的错误信息。
    -v
:显示不包含匹配文本的所有行。
2)举例说明:
    grep ^[^210] myfile
匹配myfile中以非210开头的行
    grep "[5-8][6-9][0-3]" myfile
匹配myfile中第一位为5|6|7|8,第二位6|7|8|9,第三位为0|1|2|3的三个字符的行
    grep "4\{2,4\}" myfile
匹配myfile中含有44,4444444的行
    grep "\?" myfile
匹配myfile中含有任意字符的行
3grep命令类名
    [[:upper:]]  
表示[A-Z]
    [[:alnum:]]  
表示[0-9a-zA-Z]
    [[:lower:]]  
表示[a-z]
    [[:space:]]  
表示空格或者tab
    [[:digit:]]  
表示[0-9]
    [[:alpha:]]  
表示[a-zA-Z]
 
如:grep "5[[:digit:]][[:digit:]]" myfile 匹配myfile中含有5开头接下去两位都是数字的行。

4.awk
介绍
可以从文件或字符串中基于指定规则浏览和抽取信息,是一种自解释的变成语言。
1awk命令行方式 awk [-F filed-spearator] 'command' input-files
  awk
脚本:所有awk命令插入一个文件,并使awk程序可执行,然后用awk命令解释器作为脚本的首行,以便通过键入脚本名称来调用它。awk脚本是由各种操作和模式组成。
 
模式部分决定动作语句何时触发及触发事件。(BEGIN,END
 
动作对数据进行处理,放在{}内指明(print
2)分隔符、域和记录
  awk
执行时,其浏览域标记为$1,$2,...$n.这种方法成为域标识。$0为所有域。
3)举例说明:
    awk '{print $0}' test.txt |tee test.out
输出test.txt中所有行$0表示所有域
    awk -F : '{print $1} test.txt |tee test.out'  
同上。。只是分隔符为":"
    awk 'BEGIN {print "IPDate\n"}{print $1 "\t" $4} END{print "end-of-report"}' test.txt
   
开始时打印“IPDate”结束时打印“end-of-report”中间打印主体信息,比如总共匹配三条信息,则输出如下:  
IPDate
1 first
2 second
3 third
end-of-report
4)匹配操作符 ~ 匹配,!~ 不匹配
    cat test.txt |awk '$0~/210.34.0.13/'
匹配test.txt中为210.34.0.13的行
    awk '$0!~/210.34.0.13' test.txt  
匹配test.txt中不是210.34.0.13的行
    awk '{if($1=="210.34.0.13") print $0}' test.txt
匹配 test.txt中第一个域为210.34.0.13的行。

5.sed
介绍
  sed
不与初始化文件打交道,它操作的只是一个拷贝,然后所有的改动如果没有重定向到一个文件,将输出到屏幕。
  sed
是一种很重要的文本过滤工具,使用一行命令或者使用管道与grepawk相结合。是一种非交互性文本流编辑。
 
1)调用sed的三种方式
   
使用sed命令行格式为:sed [options] sed命令 输入文件
   
使用sed脚本文件格式为:sed[options] -f sed脚本文件 输入文件
    sed
脚本文件[options] 输入文件
    --
不管是使用shell命令行方式或脚本文件方式,如果没有指定输入文件,sed从标准输入中接受输入,一般是键盘或重定向结果。
 
2sed 命令的options如下
    -n
:不打印
    -c
:下一命令是编辑命令
    -f
:如果正在调用sed脚本文件
 
3sed在文件中查询文本的方式
      --
使用行号,可以是一个简单的数字,或是一个行号的范围
      --
使用正则表达式
 
4)读取文本的方式
      x     x
为一行号
      x,y    
表示行号范围从xy
      /pattern/  
查询包含模式的行
      /pattern/pattern/
查询包含两个模式的行
      pattern/,x  
在给定的行号上查询包含模式的行
      x,/pattern/  
通过行号和模式查询匹配行
      x,y!    
查询不包含指定行号xy的行
   
5)基本sed编辑命令
        p  
打印匹配行
        d  
删除匹配行
        =  
显示文件行号
        a\  
在定位行号后附加新文本信息
        i\  
在定位行号后插入新文本信息
        c\  
用新文本替换定位文本
        s  
使用替换模式替换相应模式
        r  
从另一个文件中读文件
        w  
写文本到一个文件
        q  
第一个模式匹配完成后推出或立即退出
        l  
显示与八禁止ASCII代码等价的控制字符
        {}  
在定位行执行的命令组
        n  
从另一个文件中读文本下一行,并附加在下一行
        g  
将模式2粘贴到/pattern n/
        y  
传送字符
 
6)举例说明:
      sed -n '2p' test.txt
打印第二行的信息(注意:-n是不打印不匹配的信息,若没加-n,则打印文件的所有信息而不是匹配信息)
      sed -n '1,4p' test.txt
打印第一行到第四行的信息
      sed -n '/los/p' test.txt
模式匹配los,并打印出来
      sed -n '2,/los/p' test.txt
从第二行开始。。知道匹配第一个los
      sed -n '/^$/p' test.txt
匹配空行
      sed -n -e '/^$/p' -e '/^$/=' test.txt
打印空行及行号
      sed -n '/good/a\morning' test.txt
在匹配到的good后面附加morning
      sed -n '/good/i\morning' test.txt
在匹配到的good前面插入morning
      sed -n '/good/c\morning' test.txt
将匹配到的good替换成morning
      sed '1,2d' test.txt
删除第12
      sed 's/good/good morning/g' test.txt
匹配good并替换成goodmorning
      send 's/good/& hello /p' test.txt
匹配到good就在其后面加上hello
      send 's/good/ hello &/p' test.txt
匹配到good就在其前面加上hello
     
6.
合并与分割(sort,uniq,join,cut,paste,split
  (1)sot
命令
    sort [options] files
许多不同的域按不同的列顺序分类
      -c
测试文件是否已经分类
      -m
合并两个分类文件
      -u
删除所有复制行
      -o
存储sort结果的输出文件名
      -t
域分隔符,用非空格或tab开始分类
      +n
n 为域号,使用此域号开始分类
      -n
指定分类是域上的数字分类项
      -r
比较求逆
    sort -c test.txt
测试文件是否分类过
    sort -u test.txt
排序并合并一样的行
    sort -r test.txt
以相反的顺序排列
    sort -t "/" +2 test.txt
"/"分隔,第二个域开始分类
   
2uniq命令
      uniq [options ] files
从一个文本文件中去除或禁止重复行
      -u
只显示不重复行
      -d
只显示有重复数据行,每种重复行只显示其中一行
      -c
打印每一重复行出现次数
      -f
n为数字,前n个域被忽略
      uniq -f 2 test.txt
忽略前2个域
   
3join 命令
      join [options] file1 file2
用来将来自两个分类文本文件的行连在一起
      -an
n为一数字,用于连接时从文件n中显示不匹配行
      -onm
,连接域,n为文件号,m为域号
      -jnm
n为文件号,m为域号,使用其他域作连接域
      -t
,域分隔符。用来设置非空格或tab键的域分隔符。
   
4split命令
      split -output_file_size intput_filename output_filename
     
用来将大文件分割成小文件。
        -b n
,每个分割文件的大小n
        -C n
,每个分割文件一行最多n字节
        -l n
,每个分割文件的行数
        -n
,同-l n
        split -10 test.txt
test.txt分割成10行的小文件
   
5cut 命令
      cut -c n1-n2 filename
显示每行从开头算起 n1 n2 的文字。
      cut -c 3-5 test.txt
显示test.txt中每行从第3到第5个字符
               
五、Shell函数
1.
函数定义
  shell
允许将一组命令集或语句形成一个可用块,这些块称为shell函数
 
定义函数的格式:

  function-name (){
    command1
    ........
  }
 
function function-name(){ #函数名前面多了个function关键字
    command1
    ........
  }
2.
函数调用
 
以下是一个函数的脚本实例:
  #!/bin/bash
  #hello
  function hello(){     #
声明函数
    echo "Hello!"   #
函数的主体,输出"Hello!"
  }           #
函数结束
  hello         #
调用函数
3.
参数传递
向函数传递参数就像在脚本是使用变量位置$1,$2,$3...$9
以下是一个传递参数的实例:
#!/bin/bash
#hellofun
function hello(){
    echo "Hello! The first parameter is '$1'."
}
hello good
#
该脚本执行的结果是: Hello! The first parameter is 'good'.
4.
函数文件
保存函数的文件,用以上的例子写成一个函数文件如下:
#!/bin/bash
#hellofunction
function hello(){
  echo "Hello!"
  return 1
}
上面的hellofunction文件就是一个函数文件,可通过另一个脚本来调用
#!/bin/bash
#hellof
. hellofunction #
注意点和hellofunction之间有个空格
hello
5.
载入和删除
set查看已载入的函数
unset function-name 取消载入
举例如下:
#!/bin/bash
#hellof
. hellofunction
unset
hello   #
因为已经取消载入。。所以会出错
6.
函数返回状态
#!/bin/bash
#hellofun
function hello(){
  echo "Hello! The first parameter is '$1'."
}
hello
echo $?   #
输出返回的状态值(一般成功是返回0,其它值为失败)
           
六、脚本参数传递
1.getopts
用法
获取多个命令行参数。举例说明:
#!/bin/bash
#getopts
ALL=false
HELP=false
FILE=false
VERBOSE=false
while getopts ahfvc: OPTION   #
ahfvc依次传给OPTION c后面的:表示-c时需传入参数
do
case ${OPTION} in
  a)
    ALL=true
    echo "ALL IS ${ALL}"
    ;;
  h)
    HELP=true
    echo "HELP IS ${HELP}"
    ;;
  f)
    FILE=true
    echo "FILE IS ${FILE}"
    ;;
  v)
    VERBOS=false
    echo "VERBOSE IS ${VERBOSE}"
    ;;
  c)
    c=${OPTARG}
    echo "c value is $c"
    ;;
  \?)
    echo "`basename $0` -[a h f v] -[c value] file"
    ;;
  esac
done
输入./getopts -a   输出:ALL IS true   #执行case a模式的命令
输入./getopts -h   输出:HLEP IS true #执行case h模式的命令
输入./getopts -f   输出:FILE IS true   #执行case f模式的命令
输入./getopts -v   输出:VERBOSE IS true   #执行case v模式的命令
输入./getopts -c   提示错误:需要传入参数 #c后面有所以需传参数
输入./getopts -c hello 输出:c value is hello   #执行case c模式的命令
输入./getopts -b   输出:basename ./getopts -[a h f v] -[c value] file   #其他情况
           
高级一、深入讨论awk<<
.深入讨论awk
1.awk
不仅是一个工具,它是一种语言。其涉及的条件操作符有:
<,<=,>,>=,==,!=,!~
(不匹配正则表达式), ~ (匹配正则表达式)
2.
逻辑操作符有:&& (and), || (or), ! (not)
3.awk
的内置变量
    ARGC  
命令行参数个数
    ARGV  
命令行参数排列
    ENVIRON
支持队列中系统环境变量的使用
    FILENAME awk
浏览的文件名
    FNR  
浏览的文件名
    FS    
设置输入域分隔符,等价于命令行-F选项
    NF    
浏览记录的域个数
    NR    
已读的记录数
    OFS    
输出域分隔符
    ORS    
输出记录分隔符
    RS    
控制记录分隔符
    awk -F '#' '{print NF,NR,$0,ARGV[1]
ENVIRON["USER"]}' test.txt 以域为分隔符,打印域的个数,已读的记录数,整行信息,第一个参数(0的话是awk)及用户(最后一个是取得系统的环境变量)
4.awk
的字符串函数
    gsub(r,s)
在整个$0中用s替代r
    gsub(r,s,t)
在整个t中用s替代r
    index(s,t)
返回s中字符串t的第一个位置
    length(s)
返回s的长度
    match(s,r)
测试s是否包含匹配的r的字符串
    split(s,a,fs)
fs(分割符)将s分成序列a
    sprint(fmt,exp)
返回fmt格式化后的exp
    sub(r,s)
$0中最左边最长的字串代替s
    substr(s,p)
返回字符串s中从p开始的部分
    substr(s,p,n)
返回字符串s中从p开始长度为n的部分
    example: awk -F '#' '{if (gsub("s","S",$1)) print $1}' test.txt
#为分割符,用"S"代替test.txt中每行第一个域中的"s",并打印第一个域
    awk -F '#' '{print (index($1,"s"))}' text.txt
打印“s”在每一行第一个域中的位置,若为0表示没有这个字符
5.awk
中的转义字符
    \b
退格键
    \t tab

    \f
走纸换页
    \ddd
八进制值
    \n
新行
    \c
任意其他特殊字符,如\\为反斜杠符号
    \r
回车键
  example: awk -F '#' '{print (index($2,'s')), "\t",$2}' test.txt
打印"s"在第二个域中的位置、退格(相当于键入tab)、第二个域的内容
6.printf
修饰符
    %c   ASCII
字符
    %d  
整数
    %f  
浮点数
    %e  
浮点数,科学记数法
    %g   awk
决定使用哪种浮点数转换,e或者f
    %o  
八进制数
    %s  
字符串
    %x  
十六进制数
  example: awk -F '#' '{printf "%c\n",$1}' test.txt
打印test.txt文件中的第一个域的ASCII码 (注意"%c\n""$1"之间的"," 是不可以忽略的)
7.awk
数组
  awk
中数组叫做关联数组(associative arrays),因为下标记可以是数也
可以是串。awk中的数组不必提前声明,也不必声明大小。数组元素用0
空串来初始化,这根据上下文而定。
  awk 'BEGIN {print split("as#qw#1234",array2,"#")}'
表示以"#"为分割符,将"as#qw#1234"分割到array2数组中,并打印数组的长度
  awk 'BEGIN {split("as#qw#1234",array2,"#"); print array[1]}'
如上,并打印该数组的第一个元素。(注意:这里的是数组是从下标1开始的)
8.
举例分析:
1 awk '{if ($1~/^21[0-9]/) print $0}' test.txt |wc -l 匹配test.txt中第一个域为210-219开头的行,并通过管道计算其数量。
2awk '{if ($4~/^\[07\/Jul\/2004/) print $0 }' test.txt | awk '{if ($7=="/htm/free_call.php") print $0} ' |wc -l 匹配test.txt中第四个域以 "[07/Jul/2004" 开头的且第7个域为"/htm/free_call.php"的所有行,并计算其数量。该语句本来的意思是:统计2004724日访问 /htm/free_call.php的次数。
(3)
以下是awk_array.sh的文件内容
#!/bin/awk -f   #
注明是awk的语法,若无此行则按bash的语法编译会出错
#awk_array.sh  
BEGIN{     #BEGIN
模式中的命令
FS="#"
score["0-60"]=0   #score
数组索引为"0-60"的元素(awk语法允许用字符串索引)
score["60-70"]=0
score["70-80"]=0
score["80-90"]=0
score["90-100"]=0
student["junior"]=0
student["senior"]=0
}
{
{ if ($1<60)         #
如果第一个域的值小于60
  score["0-60"]++     #score
数组中索引为"0-60"的元素值+1
}
{ if($1>=60 && $1<70)
  score["60-70"]++
}
{ if($1>=70 && $1<80)
  score["70-80"]++
}
{ if($1>=80 && $1<90)
  score["80-90"]++
}
{ if($1>=90&&$1<=100)
  score["90-100"]++
}
}
{ #
senior_junior依次为student数组中的索引(有几个就循环几次)
for (senior_junior in student)
  {if ($2==senior_junior)
    student[senior_junior]++
  }
}
END{
  { for (number in score) print "the score",number,"has",score[number],"students"}
  { for (senior_junior in student) print "The class has ",student[senior_junior],senior_junior,"students" }
  }
若有文件grade.txt如下:
85#senior
87#junior
78#junior
69#senior
56#junior
98#senior
83#senior
输入命令./awk.sh grade.txt 则输出如下:
the score 0-60 has 1 students
the score 70-80 has 1 students
the score 90-100 has 1 students
the score 60-70 has 1 students
the score 80-90 has 3 students
The class has 4 senior students
The class has 3 junior students

..深入讨论<< (标准输入)
举例来说明:
#!/bin/bash
#input.sh
cat<打印此处开始到hello结束之间的所有字符
      ***************************
        This is a test!
      ***************************
hello     #
标准输入到此行之前结束(注意:这个hello必须在句首,其前面不能有任何字符,甚至是空格)
则输出:   ****************************
        This is a test!
      ****************************
       
高级二、Shell工具
.日志文件
1.
创建日志文件的重要性:
 
记录重要的信息,如登录、运行情况、监控等。。为我们分析和排除错误非常有帮助
2.
以时间为标识的日志文件
 
适用于长期存储的日志。举个创建以时间为标识日志的例子入下:
  #!/bin/bash
  #datelog.sh
  current_date=`date ""+%Y%m%d` #
当前的日期( 年月日 )
  todaylog="log/${current_date}.log" #
今天的日志文件名
  #
如果日志文件不存在,创建一个
  if [ ! -f $todaylog ]
    then
    touch $todaylog
  fi
  #
输出日志到日志文件
  log_time_format=`date "+%Y-%m-%d %T"`
  echo "${log_time_format} commands start.....">>${todaylog}
  # commands blocks
  sleep 4
  log_time_format=`date "+%Y-%m-%d %T"`
  echo "${log_time_format} commands end!">>${todaylog} #
结束时记录日志
3.
以进程号为标识的临时文件
 
一般记录脚本运行过程中需要暂时记录的信息,一旦脚本运行结束,这些信息就可以删除。举个以进程号为标识的日志的例子:
  #!/bin/bash
  #kill_process.sh
  #
取得当前进程号
  current_pid=$$
  #
获得特定进程号并重定向到一个临时文件中
  ps -aux|grep "/usr/sbin/httpd" | grep -v "grep"| awk '{print $2}' >/tmp/${current_pid}.txt
  #commands start
  for pid in `cat /tmp/${current_pid}.txt
  do
  {
    echo "kill -9 $pid"
    kill -9 $pid
  }
  done
  rm -f /tmp/${current_pid}.txt   //
脚本运行结束前删除该日志文件

.信号
(1). 信号就是系统向脚本或命令发出的消息,告知它们某个事情的发生。
(2). kill -l 列出所有的信号
(3). kill发送信号给进程
(4). 一些信号的含义:
 
信号   信号名   含义
0            
退出shell信号,可以从命令行输入exit或在一个进程或命令行中使用
1   SIGHUP    
挂起或父进程被杀死
2   SIGINT    
来自键盘的中断信号,通常是
3   SIGOUIT  
从键盘退出
9   SIGKILL  
无条件终止
11   SIGSEGV  
段(内存)冲突
15   SIGTERM  
软件终止(缺省杀进程)
(另外还有50多种信号,可以用kill -l 命令查看)
(5). 举例说明:kill -s SIGKILL 1234 表示无条件终止进程1234(进程号)
   
通过kill -9 1234 其含义与上面一样。
   kill -1 1234 kill -s SIGHUP 1234都是挂起 进程号为1234的进程
  
.trap捕捉信号
   (1)信号可以被应用程序或脚本捕获,并依据该信号(1、2、3和15)采取相应的行动。一些信号不能被捕获。如,如果一个命令收到了信号9,就无法再捕获其他信号。
   (2)捕捉到一个信号后,可能会采取三中
     1].不采取任何行动,由系统来进行处理(如信号9由系统处理)
     2].捕获该信号,但忽略它
     3].捕获该信号,并采取相应的行动
   (3)trap可以使你在脚本中捕捉信号,命令形式为trap name signal(s)
   
其中,name是捕捉到信号以后所采取的一系列操作。实际中,name一般是一个专门用来处理所捕捉信号的函数。name需要用双引号(“”)引起来。signal是待捕捉的信号。
      最常见的行动包括:
     1]清除临时文件
     2]忽略该信号(trap "" 23)
     
3]询问用户是否终止该脚本进程
   (4)举例说明:
     #!/bin/bash
    #trap.sh
    trap 'exitprocess' 2
    #捕捉到信号2之后执行exitprocess function
    LOOP=0
    function exitprocess()
    {
    echo "You Just hit , at number $LOOP"
    echo "I will now exit"
    exit 1
    }
    while :   #
循环直到捕捉到信号(注意中间的空格)
    do
        LOOP=$[ $LOOP+1 ]
        echo $LOOP
         sleep 1
    done
     
.eval
(1)eval命令首先会扫描命令行进行所有的置换,然后再执行该命令。该命令适用于那些一次扫描无法实现其功能的变量。
 (2)举例:myfile="cat command.txt";`eval $myfile` 将会执行command.txt中的命令,如,若command.txt文件的内容是ls -al 则会执行该命令(一行行执行),若不是命令则提示出错信息。
.logger
 (1)logger命令向/var/log/messages文件发送信息
 (2)logger命令的一般形式: logger -p -i message
    -p
:为优先级别,这里只涉及到提示用户注意的优先级,这也是缺省值
    -i:在每个消息中记录发送消息的进程号
 (3)举例说明:logger -p 5 -i "hello" “hello”记录到/var/log/messages
             
高级三、运行级别脚本介绍
.运行级别
 (1)运行级别目录(/etc/rN.d) (N1,2,3,4,5,6)
(2)查看当前运行级别,命令:runlevel
(3)运行级别目录文件格式(SXXscript,KXXscript),S表示在这个运行级别下面这个脚本的服务是打开的,K表示这个脚本的服务是停止的。
.inittab
 (1)运行级别控制文件(/etc/inittab)
(2)修改inittab文件
    其中有一行"id:5:initdefault" 5X11的启动模式,可以在此处更改启动模式,一般服务器是选择3(带网络连接的多用户模式),06的运行级别表示如下:
       0   关机(不要设置initdefault0
          1  
单用户模式
       2   不带网络连接的多用户模式
       3   带网络连接的多用户模式
       4   暂时没用到
       5   X11
          6  
重起(不要设置initdefault6
   
其中有一行"# Things to run in every runlevel"该行下面可以添加各个级别下的运行脚本。比如添加"checkdisk:3:once:/sbin/checkdisk.sh >/dev/console 2>&1"
      checkdisk:服务名称
    3
:表示当用户启动模式3时自动运行该脚本(不写的话表示所有模式下自动启动)
    once:启动一次
    /sbin/checkdisk.sh:脚本
    >/dev/console 2>&1 将标准错误和标准输出重定向到文件/dev/console
.启动应用程序 
(1)启动脚本分析(start|stop|restart)
  cat /etc/init.d/crond
(2)启动脚本
  service server start|stop|restart| ....
  script_name start|stop|restart
 
举例:service crond restart 重起crond服务
     service crond status 查看crond服务的状态
           
高级四、 脚本实例分析
1.cpdir.sh
#!/bin/bash
#cpdir.sh
#
此脚本用于将源目录下的子目录全部复制到目的目录中,不复制目录中的文件,确保目的目#录中的子目录是空目录。
 #脚本用法函数
 usage()
{
echo "cpdir.sh
源目录 目的目录"
 }
#
判断是否为两个参数,否则提示脚本用法
 #if [ $# -ne 2]
then
{
usage
exit 0
}
fi
srcdir =$1
desdir=$2
#
判断源目录${srcdir}是否为目录,否则提示错误信息和用法
 if[ ! -d ${srcdir} ]
then
{
usage
echo "
错误:源目录${srcdir}不是目录"
  exit
}
fi
#
判断目的目录${desdir}是否为目录,否则提示错误信息和用法
 if[ ! -d ${desdir} ]
then
{
usage
echo "
错误:目的目录${desdir}不是目录"
  exit
}
fi
 processid=$$
#
查找源目录下所有的子目录,输出并保存到/tmp/srcdir_pid.txt文件中
 echo "源目录${srcdir}下的所有子目录"
 echo "***********************************"
find ${srcdir}/* -type d |tee /tmp/srcdir_tmp_${processid}.txt
sed "s/^${srcdir}/${desdir}/g}" /tmp/srcdir_tmp_${processid}.txt >/tmp/srcdir_${processid}.txt
#
在目的目录下建立空目录
rm -rf ${desdir}/*
          
for subdir in `cat /tmp/srcdir_${processid}.txt`
do
{
mkdir ${subdir}
}
done
echo "
目标目录${desdir}下的所有的子目录"
echo "***********************************"
find ${desdir}/* -type d | tee /tmp/desdir_${processid}.txt
echo "
比较目标目录和源目录的差异"
 echo "***********************************"
diff /tmp/desdir_${processid}.txt /tmp/srcdir_${processid}.txt
 
rm -f /tmp/desdir_${processid}.txt /tmp/srcdir_${processid}.txt #
删除临时文件

 

阅读(5880) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~