Chinaunix首页 | 论坛 | 博客
  • 博客访问: 656987
  • 博文数量: 149
  • 博客积分: 3901
  • 博客等级: 中校
  • 技术积分: 1558
  • 用 户 组: 普通用户
  • 注册时间: 2009-02-16 14:33
文章分类

全部博文(149)

文章存档

2014年(2)

2013年(10)

2012年(32)

2011年(21)

2010年(84)

分类: 服务器与存储

2011-05-16 19:34:30






在写 hadoop  mapreduce 内存需要比较注意的地方

我们的配置 mapred-site.xml

mapred.tasktracker.map.tasks.maximum  =  6 jvm

mapred.tasktracker.reduce.tasks.maximum =  2 jvm

 

mapred.child.java.opts = -Xmx2048m -Xms512m

 

最差情况  8 * 2G = 16G

 

map 两个关键的配置 :

Io.sort.mb / io.sort.spill.percent  map jvm 一上来 这两个配置就决定 初始大小

StatBase 10.10.70.85凌晨5点的一个mapreduce 上)

我的 Io.sort.mb / io.sort.spill.percent = 1000 / 0.8 也就是 每台机器 初始: 6*800M  

 跑一段时间后 内存小的就开始大量使用 swap

reduce 上来有 大概在 1.2~1.3G * 8 的内存使用量 swap 4G全部用完

 

总结: 尽量 配置 io.sort.mb 小于 200m ,这样 每个jvm 大概在在最后 500m 之间.

       每台机器 500m*8  应该没问题

 


阅读(3770) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~