Chinaunix首页 | 论坛 | 博客
  • 博客访问: 297801
  • 博文数量: 240
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 50
  • 用 户 组: 普通用户
  • 注册时间: 2016-08-04 18:14
文章分类

全部博文(240)

文章存档

2017年(8)

2014年(4)

2013年(15)

2012年(4)

2011年(14)

2010年(55)

2009年(140)

我的朋友

分类: HADOOP

2013-01-07 16:46:50

应用场景: 同一个集群内有些服务器磁盘 2T,有些服务器 500G,2T 的服务器磁盘得不到有效利用,这是就需要对 500G 的磁盘做限额配置.


配置方法: 在 hdfs-site.xml 里配置如下参数,注意,那个 value 的值是配置该磁盘保留的DFS不能使用的空间大小,单位是字节. (如果多块硬盘,则表示为每块硬盘保留这么多空间)

  1. dfs.datanode.du.reserved
  2. 236223201280
  3. Reserved space in bytes per volume. Always leave this much space free for non dfs use.


生效方法:  重启 datanode 使该参数生效,可逐台在线重启.

  1. for i in `list `;do
  2.     ssh $i "hadoop/bin/hadoop-daemon.sh stop datanode && sleep 1 && hadoop/bin/hadoop-daemon.sh start datanode; sleep 30";
  3. done


验证方式: hdfs web 中查看 Configured Capacity (GB) 大小是否已经限制为预留空间.

 
Hadoop 测试版本:Version:  0.20.2-cdh3u4, r110565
阅读(4012) | 评论(0) | 转发(2) |
0

上一篇:exec与xargs区别

下一篇:bond切换

给主人留下些什么吧!~~