Chinaunix首页 | 论坛 | 博客
  • 博客访问: 108091
  • 博文数量: 29
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 397
  • 用 户 组: 普通用户
  • 注册时间: 2014-12-26 15:36
文章分类

全部博文(29)

文章存档

2016年(3)

2015年(13)

2014年(13)

我的朋友

分类: 系统运维

2015-01-07 10:15:36


参考:http://blog.csdn.net/w13770269691/article/details/24470227

通过decommission方式: 

a) 修改hdfs-site,添加exclude字段中的排除的节点。 

   
      dfs.hosts.exclude
      /etc/hadoop/conf/dfs.exclude
      删除节点添加到/etc/hadoop/conf/dfs.exclude 文件中
   


b) 执行 hdfs dfsadmin -refreshNodes 或者 sh hadoop dfsadmin -refreshNodes,强制刷新。 
c) 查看节点状态,该节点的状态为decommission。 

说明:decommission方式修改了hdfs-site文件,未修改slave文件。 
所以集群重启时,该节点虽然会被启动为datanode,但是由于添加了exclude,所以namenode会将该节点置为decommission。 
此时namenode不会与该节点进行hdfs相关通信。也即exclude起到了一个防火墙的作用。 


阅读(1364) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~