Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2137649
  • 博文数量: 103
  • 博客积分: 206
  • 博客等级: 入伍新兵
  • 技术积分: 1819
  • 用 户 组: 普通用户
  • 注册时间: 2012-09-12 10:24
个人简介

效字当先,以质为本。

文章分类
文章存档

2019年(2)

2018年(4)

2017年(7)

2016年(3)

2015年(14)

2014年(33)

2013年(31)

2012年(9)

分类: HADOOP

2015-08-08 21:48:36

本来想着很简单的一个安装,结果花费了一天时间才搞定,中间遇到很多问题,最终安装成功,记录下。
安装步骤简单说下(网上有很多安装详细步骤,这里不详细说明,主要是中间的问题解决):
一、安装jdk1.7,配置环境变量,这里注意尽量不要使用中间带有空格的路径,如program files下面,cygwin容易识别不出路径;
二、下载cygwin并安装,记得记得选择openssh包的安装;
三、配置ssh;
四、下载hadoop-0.20版本,解压后修改hadoop-env.sh以及core/hdfs等.xml文件;
五、运行hadoop;
问题:
1、首先是安装ssh时候一直失败,提示找不到ssh命令,原因是openssh的包没有安装,重新安装后解决;
2、Cygwin中出现-bash: $'\r': command not found 错误,解决办法是使用dos2unix格式化hadoop-env.sh文件;
3、hadoop-env.sh文件已经把本地java home加入(export JAVA_HOME=/cygdrive/c/java), 运行start-all。sh仍出现JAVA_HOME未设,解决办法同上使用dos2unix格式化hadoop-env.sh文件;
4、运行hadoop namenode -format时一直提示:java.lang.RuntimeException: com.sun.org.apache.xerces.internal.impl.io.MalformedByteSequenceException: 1 字节的 UTF-8 序列的字节 1 无效;解决办法:把hadoop/conf下的几个xml配置文件重新保存成utf-8文件即可;
阅读(3143) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~