Chinaunix首页 | 论坛 | 认证专区 | 博客 登录 | 注册

东南西北风andyhuang.blog.chinaunix.net

脚踏实地,一步一个脚印!

  • 博客访问: 2721523
  • 博文数量: 700
  • 博客积分: 8199
  • 博客等级: 中将
  • 技术积分: 9734
  • 用 户 组: 普通用户
  • 注册时间: 2010-05-25 20:19
个人简介

脚踏实地、勇往直前!

文章分类

全部博文(700)

文章存档

2018年(4)

2017年(76)

2016年(48)

2015年(50)

2014年(169)

2013年(52)

2012年(177)

2011年(93)

2010年(30)

微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

发布时间:2017-12-07 11:26:32

平时我们在将外部文件导入到hive表的过程中,要是原文件包含有中文的,导入就经常会出现乱码,这个时候我们可以事先把文件编码格式修改为utf8后再导入.1.查看文件的当前的编码[hadoop@master exter_data]$ file --mime-encoding provcode.TXTprovcode.TXT: iso-8859-12.转换为utf8格式iconv.........【阅读全文】

阅读(219) | 评论(0) | 转发(0)

发布时间:2017-05-03 07:38:42

环境配置HostnameIPOSAmbari172.16.235.164Centos X64 base installMaste.hadoop172.16.235.165.........【阅读全文】

阅读(487) | 评论(0) | 转发(0)

发布时间:2015-04-27 14:48:00

环境: OS:RadHat Linux As5CDH:5.3.2 1.安装步骤 1.1 节点角色分配 节点角色 ip hostname 主节点 .........【阅读全文】

阅读(3015) | 评论(0) | 转发(0)

发布时间:2014-12-03 17:07:44

linux下安装spark环境:OS:Rad Hat Linux As5spark-1.0.2scala-2.10.2安装spark需要安装scala环境,所以这里我们先安装scala. 1.下载安装介质,根据情况选择下载的版本,使用hadoop拷贝安装文件到usr1解压[hadoop1@.........【阅读全文】

阅读(1458) | 评论(0) | 转发(0)

发布时间:2014-12-03 09:23:50

linux下安装sqoop环境:OS:Rad Hat Linux As5sqoop-1.4.5 1.下载安装介质,根据情况选择下载的版本,使用hadoop拷贝安装文件到usr1解压 [hadoop1@node1 usr1]$ tar -zxvfsqoop-1.4.5.bin__hadoop-1.0.0.tar.gz将hive用.........【阅读全文】

阅读(1391) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册