参考:http://blog.csdn.net/w13770269691/article/details/24470227
通过decommission方式:
a) 修改hdfs-site,添加exclude字段中的排除的节点。
dfs.hosts.exclude
/etc/hadoop/conf/dfs.exclude
删除节点添加到/etc/hadoop/conf/dfs.exclude 文件中
b) 执行 hdfs dfsadmin -refreshNodes 或者 sh hadoop dfsadmin -refreshNodes,强制刷新。
c) 查看节点状态,该节点的状态为decommission。
说明:decommission方式修改了hdfs-site文件,未修改slave文件。
所以集群重启时,该节点虽然会被启动为datanode,但是由于添加了exclude,所以namenode会将该节点置为decommission。
此时namenode不会与该节点进行hdfs相关通信。也即exclude起到了一个防火墙的作用。
阅读(1451) | 评论(0) | 转发(0) |