Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1177563
  • 博文数量: 181
  • 博客积分: 4968
  • 博客等级: 上校
  • 技术积分: 1867
  • 用 户 组: 普通用户
  • 注册时间: 2008-01-13 21:52
文章分类

全部博文(181)

文章存档

2015年(2)

2013年(6)

2012年(22)

2011年(41)

2010年(27)

2009年(51)

2008年(32)

我的朋友

分类: LINUX

2012-02-17 09:51:26

在统计某些数据的时候,文件中往往存在一些重复的行,那如何去掉这些重复的行呢?

用强大的awk可以轻松实现文件内容行去重。

awk '!a[$0]++' 文件

例如文件 zhetenga.txt 的内容是

1

1

2

2

3

3

awk '!a[$0]++' zhetenga.txt

将会输出

1

2

3

阅读(6679) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~