今天没事,测试了一下对dfs.name.dir追加目录,大致情况如下:
1.
刚开始配置如下:
dfs.name.dir
/hadoop/dfsname
dfs.name.dir存放的是name node的元数据,以,号隔开,hdfs会把元数据冗余复制到这些目录。
2.停止namenode
./hadoop-daemon.sh stop namenode
3.修改
dfs.name.dir目录,如:
dfs.name.dir
/hadoop/dfsname,/hadoop/dfsname1
dfsname1需要手动mkdir
然后重启nodename:
./hadoop-daemon.sh start namenode
查看数据(没全看),发现数据没丢;但注意发现blocks数有变化(有数据丢失??)
4.再次修改配置
dfs.name.dir
/hadoop/dfsname1
重启nodename。
查看数据(没全看),发现数据没丢;发现blocks数没有变化。
疑问我样做,不知道是否会丢失数据。
阅读(4990) | 评论(0) | 转发(0) |