Chinaunix首页 | 论坛 | 博客
  • 博客访问: 6899322
  • 博文数量: 3857
  • 博客积分: 6409
  • 博客等级: 准将
  • 技术积分: 15948
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-02 16:48
个人简介

迷彩 潜伏 隐蔽 伪装

文章分类

全部博文(3857)

文章存档

2017年(5)

2016年(63)

2015年(927)

2014年(677)

2013年(807)

2012年(1241)

2011年(67)

2010年(7)

2009年(36)

2008年(28)

分类: HADOOP

2013-01-15 15:49:23

原文地址:hadoop 磁盘限额配置 作者:zhaohang3031

应用场景: 同一个集群内有些服务器磁盘 2T,有些服务器 500G,2T 的服务器磁盘得不到有效利用,这是就需要对 500G 的磁盘做限额配置.


配置方法: 在 hdfs-site.xml 里配置如下参数,注意,那个 value 的值是配置该磁盘保留的DFS不能使用的空间大小,单位是字节. (如果多块硬盘,则表示为每块硬盘保留这么多空间)

  1. dfs.datanode.du.reserved
  2. 236223201280
  3. Reserved space in bytes per volume. Always leave this much space free for non dfs use.


生效方法:  重启 datanode 使该参数生效,可逐台在线重启.

  1. for i in `list `;do
  2.     ssh $i "hadoop/bin/hadoop-daemon.sh stop datanode && sleep 1 && hadoop/bin/hadoop-daemon.sh start datanode; sleep 30";
  3. done


验证方式: hdfs web 中查看 Configured Capacity (GB) 大小是否已经限制为预留空间.

 
Hadoop 测试版本:Version:  0.20.2-cdh3u4, r110565
阅读(291) | 评论(0) | 转发(0) |
0

上一篇:Hadoop的二次排序

下一篇:认识repo文件

给主人留下些什么吧!~~