Chinaunix首页 | 论坛 | 认证专区 | 博客 登录 | 注册

东南西北风andyhuang.blog.chinaunix.net

脚踏实地,一步一个脚印!

  • 博客访问: 2729515
  • 博文数量: 704
  • 博客积分: 8199
  • 博客等级: 中将
  • 技术积分: 9784
  • 用 户 组: 普通用户
  • 注册时间: 2010-05-25 20:19
个人简介

脚踏实地、勇往直前!

文章分类

全部博文(704)

文章存档

2018年(7)

2017年(77)

2016年(48)

2015年(49)

2014年(169)

2013年(52)

2012年(177)

2011年(93)

2010年(30)

微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

hive导入表中文乱码 2017-12-07 11:26:32

分类: HADOOP


平时我们在将外部文件导入到hive表的过程中,要是原文件包含有中文的,导入就经常会出现乱码,这个时候我们可以事先把文件编码格式修改为utf8后再导入.


1.查看文件的当前的编码

[hadoop@master exter_data]$ file --mime-encoding provcode.TXT
provcode.TXT: iso-8859-1


2.转换为utf8格式

iconv -f iso-8859-1 -t utf-8 provcode.TXT -o provcode.TXT.utf8


3.然后进行导入

load data local inpath '/opt/hadoop/exter_data/provcode.TXT.utf8' into table xxx

阅读(295) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册