Chinaunix首页 | 论坛 | 博客
  • 博客访问: 144460
  • 博文数量: 34
  • 博客积分: 2026
  • 博客等级: 大尉
  • 技术积分: 350
  • 用 户 组: 普通用户
  • 注册时间: 2009-12-02 12:49
文章分类

全部博文(34)

文章存档

2010年(18)

2009年(16)

我的朋友

分类: LINUX

2010-03-24 10:23:42

    几天在单机环境下搭好了Hadoop,这两天开始着手搭建集群环境。使用设备是我自己在实验室的一台PC机和实验室的两台服务器,PC作为Namenode节点,同时运行一个Namenode和一个Datanode,两台服务器作为slave,各自作为一个Datanode,这样就一共有3个Datanode节点。IP地址分配为:
 
     master:192.168.5.236,Ubuntu9.10,运行Namenode,SecondaryNamenode,Datanode,JobTracker,TaskTracker
     slave1:192.168.5.201,Debian4.0,运行Datanode,TaskTracker
     slave2:192.168.5.202,Debian4.0,运行Datanode,TaskTracker
 
    1.首先是配置java环境,这个略去~~~~
   
    2.把PC上已有的hadoop程序文件夹拷贝到两个datanode的相同目录下,注意一定是相同目录,而且登录这3台机器的用户名必须相同。
 
    3.修改三台机器的/etc/hosts,
           # /etc/hosts (for master AND slave)
           192.168.5.236    master
           192.168.5.201    slave1
           192.168.5.202    slave2          
   
    4.设置namenode以ssh免密码方式连接datanode
    a)先在PC上设置ssh免密码登录:

  ssh-keygen -t rsa -P ""
 Generating public/private rsa key pair.
 Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
 Created directory '/home/hadoop/.ssh'.
 Your identification has been saved in /home/hadoop/.ssh/id_rsa.
 Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
 The key fingerprint is:
 9d:47:ab:d7:22:54:f0:f9:b9:3b:64:93:12:75:81:27 hadoop@ubuntu
 

 
    b)然后,再把master的$HOME/.ssh/id_rsa.pub文件拷贝到slave1和slave2的$HOME/.ssh/下。
 
    5.修改master节点的配置文件
    a)修改 /conf/masters如下:
 
                                         master
 
     b)修改 /conf/slaves如下:
 
                                   master
                                   slave1
                                   slave2
 
    6.在所有节点上修改配置文件
    a)修改conf/hadoop-env.sh,添加java_home的路径
            export JAVA_HOME=/usr/lib/.........
    b)修改conf/core-site.xml,加入
            >
                 >fs.default.name>
                 >hdfs://master:54310>
            >
            >
                 >hadoop.tmp.dir
>
                 >这里写想存放HDFS文件系统的位置>
            >
    c)修改conf/mapred-site.xml,加入
            >
                 >
mapred.job.tracker>
                 >master:54311>
            >
            >
                 >
mapred.local.dir>

                 >
这里写想存放临时文件的位置>
            >
     d)修改conf/hdfs-site.xml,加入
              >
                 >dfs.replication>
                 >3>      注:这里有3个datanode,所以有三个副本
            >

    
     7.配置完成,在master上格式化Namenode,
                     
                          $ bin/hadoop namenode -format
    
     8.然后通过bin/start-all.sh启动各节点即可。
 
    
   
     

阅读(2136) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~