Chinaunix首页 | 论坛 | 博客

东南西北风andyhuang.blog.chinaunix.net

脚踏实地,一步一个脚印!

  • 博客访问: 2816007
  • 博文数量: 720
  • 博客积分: 8199
  • 博客等级: 中将
  • 技术积分: 9964
  • 用 户 组: 普通用户
  • 注册时间: 2010-05-25 20:19
个人简介

脚踏实地、勇往直前!

文章分类

全部博文(720)

文章存档

2018年(26)

2017年(75)

2016年(48)

2015年(48)

2014年(169)

2013年(52)

2012年(175)

2011年(93)

2010年(30)

分类: HADOOP

2017-12-07 11:26:32


平时我们在将外部文件导入到hive表的过程中,要是原文件包含有中文的,导入就经常会出现乱码,这个时候我们可以事先把文件编码格式修改为utf8后再导入.


1.查看文件的当前的编码

[hadoop@master exter_data]$ file --mime-encoding provcode.TXT
provcode.TXT: iso-8859-1


2.转换为utf8格式

iconv -f iso-8859-1 -t utf-8 provcode.TXT -o provcode.TXT.utf8


3.然后进行导入

load data local inpath '/opt/hadoop/exter_data/provcode.TXT.utf8' into table xxx

阅读(680) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册