Chinaunix首页 | 论坛 | 博客
  • 博客访问: 174740
  • 博文数量: 49
  • 博客积分: 1093
  • 博客等级: 少尉
  • 技术积分: 525
  • 用 户 组: 普通用户
  • 注册时间: 2012-02-21 14:31
文章分类

全部博文(49)

文章存档

2012年(49)

我的朋友

分类: LINUX

2012-02-21 16:40:56

1.通过hadoop取数据
hadoop fs -get /user/hive/warehouse/AREA/201112/area_20111210.txt /tmp/
把文件area_20111210.txt从hadoop上取到本地路径tmp

2.通过hive
hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/aa' select * from area;
Total MapReduce jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_201112161702_0317, Tracking URL =
Kill Command = /data/hadoop-0.20.2/bin/../bin/hadoop job  -Dmapred.job.tracker=192.168.239.63:9001 -kill job_201112161702_0317

3.直接执行
 echo "select  * from area limit 1000;" | hive > test.txt 
阅读(2751) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~