2013年(350)
分类: HADOOP
2013-04-11 16:42:32
我们任选一个节点,比如说就hdnode1吧,使用grid用户登录,而后修改配置文件,详细如下。
配置hadoop的基础环境变量,如JDK位置,hadoop一些配置、文件及日志的路径,这些配置都在hadoop-env.sh文件中:
这里我们先仅修改JAVA_HOME变量值,指定到JDK目录:
提示,本步也可以不做修改,而将JAVA_HOME加到用户的环境变量中。
修改核心站点配置,主要指定NameNode服务器的地址:
修改内容如下:
fs.default.name
hdfs://hdnode1:9000/
true
这样我们就将hdnode1定义为NameNode。注意一个hadoop集群中不管master还是slave,fs.default.name的值必须相同,也就是说一个hadoop只能有一个NameNode。
指定HDFS相关的配置:
修改内容如下:
dfs.name.dir
/data2/hadoop/name
true
dfs.data.dir
/data2/hadoop/data
true
dfs.replication
3
那么这几个参数又都是什么意思呢?别的咱不讲,说一说上文提到的这哥仨:
除了这仨,别的参数还多着呢,后面咱们接触到了再介绍。
接下来配置mapreduce服务相关的参数,修改mapred-site.xml文件:
修改内容如下:
mapred.job.tracker
hdnode1:9001
true
指定JobTracker进程运行的位置,这里指定在hdnode1节点上执行。
指定运行SecondaryNameNode服务的节点:
[grid@hdnode1 ~]$ more /usr/local/hadoop-0.20.2/conf/masters
hdnode1提示:注意哟,这里说的是运行SecondaryNameNode服务的节点,并不是指身份为master角色的节点哟。如果希望SecondaryNameNode运行在非namenode节点上的话,可以在这里指定另外的节点。
指定运行datanode和tasktracker的节点:
[grid@hdnode1 ~]$ more /usr/local/hadoop-0.20.2/conf/slaves
hdnode2
hdnode3剩下的俩节点呗。
这样第一个节点就配置好了,第二和第三个节点怎么处理呢?直接将这些文件复制到第二第三节点即可。