Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2306196
  • 博文数量: 266
  • 博客积分: 5485
  • 博客等级: 大校
  • 技术积分: 3695
  • 用 户 组: 普通用户
  • 注册时间: 2007-06-20 11:05
个人简介

多读书,多做事,广交朋友,趣味丛生

文章分类

全部博文(266)

分类: HADOOP

2013-03-19 18:28:41

原文地址:hadoop 磁盘限额配置 作者:zhaohang3031

应用场景: 同一个集群内有些服务器磁盘 2T,有些服务器 500G,2T 的服务器磁盘得不到有效利用,这是就需要对 500G 的磁盘做限额配置.


配置方法: 在 hdfs-site.xml 里配置如下参数,注意,那个 value 的值是配置该磁盘保留的DFS不能使用的空间大小,单位是字节. (如果多块硬盘,则表示为每块硬盘保留这么多空间)

  1. dfs.datanode.du.reserved
  2. 236223201280
  3. Reserved space in bytes per volume. Always leave this much space free for non dfs use.


生效方法:  重启 datanode 使该参数生效,可逐台在线重启.

  1. for i in `list `;do
  2.     ssh $i "hadoop/bin/hadoop-daemon.sh stop datanode && sleep 1 && hadoop/bin/hadoop-daemon.sh start datanode; sleep 30";
  3. done


验证方式: hdfs web 中查看 Configured Capacity (GB) 大小是否已经限制为预留空间.

 
Hadoop 测试版本:Version:  0.20.2-cdh3u4, r110565
阅读(10350) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~