Chinaunix首页 | 论坛 | 博客
  • 博客访问: 134509
  • 博文数量: 31
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 0
  • 用 户 组: 普通用户
  • 注册时间: 2018-11-12 09:56
文章分类

全部博文(31)

文章存档

2014年(6)

2013年(9)

2008年(7)

2007年(7)

2006年(2)

分类: 云计算

2014-02-13 17:42:28

今天没事,测试了一下对dfs.name.dir追加目录,大致情况如下:
1.
刚开始配置如下:
    
         dfs.name.dir   
         /hadoop/dfsname 
   

dfs.name.dir存放的是name node的元数据,以,号隔开,hdfs会把元数据冗余复制到这些目录。

2.停止namenode
  ./hadoop-daemon.sh stop namenode
3.修改dfs.name.dir目录,如:
 
    
         dfs.name.dir   
         /hadoop/dfsname,/hadoop/dfsname1 
   
 dfsname1需要手动mkdir
 然后重启nodename:
  ./hadoop-daemon.sh start namenode
  查看数据(没全看),发现数据没丢;但注意发现blocks数有变化(有数据丢失??)

4.再次修改配置
     
         dfs.name.dir   
         /hadoop/dfsname1 
   
  重启nodename。
 
查看数据(没全看),发现数据没丢;发现blocks数没有变化。


疑问我样做,不知道是否会丢失数据。


阅读(4909) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~