Chinaunix首页 | 论坛 | 博客
  • 博客访问: 170597
  • 博文数量: 51
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 422
  • 用 户 组: 普通用户
  • 注册时间: 2013-06-23 16:12
文章分类

全部博文(51)

文章存档

2015年(1)

2014年(45)

2013年(5)

我的朋友

分类: LINUX

2014-07-10 14:57:03

http://blog.csdn.net/bluishglc/article/details/24591185


本文将基于hadoop 2.2.0讲解其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net/bluishglc/article/details/24591185,转载请注明出处!


1. 网络设置

禁用防火墙

service iptables stop

禁用IPv6
打开/etc/modprobe.d/dist.conf,添加:

alias net-pf-10 off
alias ipv6 off

重新系统之后,可以通过命令:

lsmod|grep ipv6

查看ipv6模块是否已经不再加载

2. 安装与配置

2.1 安装前的准备

在安装hadoop前需要安装ssh,配置各节点间的基于密钥的免密码登录,安装jdk1.7并配置JAVA_HOME,关于这些操作请参考其他文档,本文不做赘述,只给出/etc/profile中关于JAVA_HOME和HADOOP_HOME的配置参考:

[plain] view plaincopy
  1. JAVA_HOME=/usr/java/jdk1.7.0_51  
  2. HADOOP_HOME=/usr/local/hadoop  
  3. PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin  
  4. export JAVA_HOME HADOOP_HOME PATH  

注:为了方便起见,我们将$HADOOP_HOME/sbin也加入到了PATH中,同时为了在输入命令时避免同名cmd文件的干扰,可以使用rm -f $HADOOP_HOME/bin/*.cmd;rm -f $HADOOP_HOME/sbin/*.cmd;删除cmd文件。

2.2 配置必要的环境变量

本文安装基于这样一个约定或者说偏好:安装程序位于/usr/local(或者/opt),生成的文件和相关数据文件集中放置于/var/hadoop,将发行包解压至/usr/local(或者/opt)后,分别编辑${HADOOP_HOME}/etc/hadoop/hadoop-env.sh${HADOOP_HOME}/etc/hadoop/yarn-env.sh,在两个文件中找到并修改或者是添加下列环境变量:

[plain] view plaincopy
  1. export JAVA_HOME=/your/java/home  
  2. export HADOOP_LOG_DIR=/var/hadoop/logs  
  3. export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native  
  4. export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"  


述环境变量的配置都不是必须的,对于第一项配置原文件的写法是export
JAVA_HOME=${JAVA_HOME},但在集群环境下启动时可能会报JAVA_HOME is not set and could not
be
found错误,从该项的注释上我们了解到,在集群环境下即使各结点都正确地配置了JAVA_HOME,这里最好还是显示地重新声明一遍
JAVA_HOME.第二项配置是指定log的存放目录,默认位置是安装目录下的logs文件夹,按前文约定,本次安装将log文件置于/var
/hadoop/logs下。对第三项和第四顶配置要视情况添加,如果出现4.2节所描述的问题则这两项是必须的!

2.3 配置${HADOOP_HOME}/etc/hadoop/core-site.xml

  1. <configuration>  
  2.     <property>  
  3.         <name>fs.defaultFSname>  
  4.         <value>hdfs://YOUR-NAMENODE:9000value>  
  5.     property>  
  6.     <property>  
  7.         <name>hadoop.tmp.dirname>  
  8.         <value>/var/hadoopvalue>  
  9.     property>  
  10. configuration>  

core-site.xml的各项默认配置可参考:
对于一个新集群来说,唯一必须修改的项是:fs.defaultFS,该项指明了文件系统的访问入口,实际上是告知所有的datanode它们的namenode是哪一个从而建立起namenode与各datanode之间的通信。


此之外,按照前文约定,我们把hadoop.tmp.dir设置为/var/hadoop。观察core-default.xml我们可以发现,在所有涉
及目录的配置项上,默认都是在${hadoop.tmp.dir}之下建立子文件夹,所以本次安装我们只简单地将hadoop.tmp.dir的原默认值
/tmp/hadoop-${user.name}改为/var/hadoop,将所有hadoop生成和使用的文件集中/var/hadoop下,避免
与/tmp目录下若干其他文件混杂在一起。

2.4 配置${HADOOP_HOME}/etc/hadoop/hdfs-site.xml

  1. <configuration>  
  2.     <property>  
  3.         <name>dfs.namenode.secondary.http-addressname>  
  4.         <value>YOUR-SECONDARY-NAMENODE:50090value>  
  5.     property>  
  6.     <property>  
  7.         <name>dfs.replicationname>  
  8.         <value>1value>  
  9.     property>  
  10. configuration>  

hdfs-site.xml的各项默认配置可参考: 对于一个新集群来说这个文件没没有必须修改的项,但是有几个重要的配置项是可能需要修改的,主要是如下几项:
  • dfs.namenode.secondary.http-address //指定secondary namenode结点,若不指定,在使用start-dfs.sh启动时,当前节点将自动成为secondary namenode
  • dfs.replication  //每一个block的复制份数,默认是3,如果集群datanode结点数量小于3应将该值设置小于或等于datanode的结点数量
  • dfs.namenode.name.dir //存放namenode相关数据的文件夹
  • dfs.datanode.data.dir //存放datanade相关数据的文件夹
  • dfs.namenode.checkpoint.dir //存放secondary namenode相关数据的文件夹

对于后三项来说,它们的默认值也都是在${hadoop.tmp.dir}之下的子文件夹,你可以根据集群的实际情况修改这三个值。比如:把它们改到一个挂载到NFS上的文件夹。

2.5 配置${HADOOP_HOME}/etc/hadoop/mapred-site.xml

在${HADOOP_HOME}/etc/hadoop下拷贝一份mapred-site.xml.template命名为mapred-site.xml,添加如下内容:

  1. <configuration>  
  2.     <property>  
  3.         <name>mapreduce.framework.namename>  
  4.         <value>yarnvalue>  
  5.     property>  
  6. configuration>  

mapred-
site.xml的各项默认配置可参考:hadoop.apache.org/docs/r2.2.0/hadoop-mapreduce-client
/hadoop-mapreduce-client-core/mapred-default.xml
该文件唯一一个必须要修改的项是mapreduce.framework.name,该项告诉hadoop使用何种框架执行map-reduce任务。

另外该文件也有几个设及文件存放位置的配置项:

  • mapreduce.cluster.local.dir
  • mapreduce.jobtracker.system.dir
  • mapreduce.jobtracker.staging.root.dir
  • mapreduce.cluster.temp.dir
如有必要也应该做适当修改。

2.6 配置${HADOOP_HOME}/etc/hadoop/yarn-site.xml

  1. <configuration>  
  2.     <property>  
  3.         <name>yarn.resourcemanager.hostnamename>  
  4.         <value>YOUR-RESOURCE-MANAGERvalue>  
  5.     property>  
  6.     <property>  
  7.         <name>yarn.nodemanager.aux-servicesname>  
  8.         <value>mapreduce_shufflevalue>  
  9.     property>  
  10. configuration>  

yarn-site.xml的各项默认配置可参考:

该文件必须修改的项有两个,基中yarn.resourcemanager.hostname项与core-site.xml的fs.defaultFS
项类似,该项为所有的nodemanager指明了resourcemanager,建立起resourcemanager与各nodemanager之
间的通信。

另外该文件也有几个设及文件存放位置的配置项:

  • yarn.nodemanager.local-dirs
  • yarn.resourcemanager.fs.state-store.uri

如有必要也应该做适当修改。

2.7 配置slave结点列表

通常情况我们使用start-dfs.sh脚本来启动整个集群,查看该脚本可以知道,该脚本会基于配置文件在目标结点上启动namenode,secondary namenode, 和slave(datanode)结点,slave(datanode)的列表是在${HADOOP_HOME}/etc/hadoop/slaves文件中配置的,一个结点一行。所以我们需要在此文件中添加所有的datanode机器名或IP

2.8 将上述配置的hadoop安装程序重新打包复制到所有结点的对应位置再展开,同时记得修改每个结点的/etc/profile

3. 启动

3.1 关于账户设置


正式的部署环境上,我们推荐设置专有账户来运行hadoop,例如:创建用户hdfs用户来启动namenode和datanode,创建yarn用户来
启动resourcemanager和nodemanager.至于这些用户的用户组可以是同名用户组(这与CDH的做法一致的),也可以使用一个统一的
用户组,如hadoop之类,这取决于你自己的喜好,但本质上这些用户彼此之间并没有必然的联系,让它们从属于同一个用户组并没有什么特殊的意味,所以我
喜欢让每一个用户独立于自己的用户组。


要特别提醒的是:如果配置专用账户启动hadoop相关服务需要将hadoop所使用的各种文件夹(例如:dfs.namenode.name.dir等
等)的owner和owner
group改为专有用户,否则会导致专有用户因为没有足够的权限访问这些文件夹而导致服务启动失败。由于配置这些文件夹的owner和owner
group相当繁琐,且启停这些服务时都需要切换至对应用户,对于日常开发来说是很不便的,所以如果你搭建的是本地开发环境可以简单地使用root帐号来
启动hadoop.

3.2 格式化集群

初启动前,需要首先格式化集群,执行命令:

hadoop namenode -format


3.3 启动hdfs

执行:

start-dfs.sh


命令可以任意结点上执行。不过需要注意的是如果配置文件中没有指明secondary
namenode(即在hdfs-site.xml中没有配置dfs.namenode.secondary.http-address),那么在哪个结
点上执行该命令,该点将自动成为secondary namenode.

以下单独启动某项服务的命令:

启动namenode

hadoop-daemon.sh start namenode

启动secondarynamenode

hadoop-daemon.sh start secondarynamenode

启动datanode

hadoop-daemon.sh start datanode

启动之后,访问:


检查HDFS各结点情况,如都能访问表示HDFS已无问题,如无法访问或缺少节点,可分析log的中的信息找出问题原因。

3.4 启动yarn

执行:

start-yarn.sh

该命令可以任意结点上执行。其slaves结点与hdfs一样,读取的也是${HADOOP_HOME}/etc/hadoop/slaves文件。

以下单独启动某项服务的命令:

启动resourcemanager

yarn-daemon.sh start resourcemanager

启动nodemanager

yarn-daemon.sh start nodemanager

启动之后,访问:


检查YARN各结点情况,如都能访问表示YARN无问题,如无法访问或缺少节点,可分析log的中的信息找出问题原因。

4. 常见错误

4.1:Problem connecting to server: xxxx:9000

在确认关闭了ipv6和防火墙之后,在namenode上使用

netstat -ntlp|grep 9000

检查namenode服务端口的分配(特别是 local address和foreign address),确定是否存在配置上的问题,如有没有正确配置/etc/hosts

4.2:libhadoop.so.1.0.0 which might have disabled stack guard

在使用./sbin/start-dfs.sh或./sbin/start-all.sh启动时会报出这样如下警告:

Java
HotSpot(TM) 64-Bit Server VM warning: You have loaded library
/usr/local/hadoop-2.2.0/lib/native/libhadoop.so.1.0.0 which might have
disabled stack guard. The VM will try to fix the stack guard now.
....
Java: ssh: Could not resolve hostname Java: Name or service not known
HotSpot(TM): ssh: Could not resolve hostname HotSpot(TM): Name or service not known
64-Bit: ssh: Could not resolve hostname 64-Bit: Name or service not known
....


个问题的错误原因会发生在64位的操作系统上,原因是从官方下载的hadoop使用的本地库文件(例如lib/native
/libhadoop.so.1.0.0)都是基于32位编译的,运行在64位系统上就会出现上述错误。解决方法之一是在64位系统上重新编译
hadoop,另一种方法是在hadoop-env.sh和yarn-env.sh中添加如下两行:

[plain] view plaincopy
  1. export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native  
  2. export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"  

4.3:Error: JAVA_HOME is not set and could not be found.


然你已经在各个节点上正确的配置了JAVA_HOME,但是启动时还是可能会报出上述错误,从etc/hadoop/hadoop-env.sh文件关于
第一行配置:export
JAVA_HOME=${JAVA_HOME}的注释上来看,对于一个分布式集群,这里JAVA_HOME最好显式地指明而不要使用默认
的${JAVA_HOME}。对于etc/hadoop/yarn-env.sh也是如此!
阅读(1536) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~