Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4463184
  • 博文数量: 1214
  • 博客积分: 13195
  • 博客等级: 上将
  • 技术积分: 9105
  • 用 户 组: 普通用户
  • 注册时间: 2007-01-19 14:41
个人简介

C++,python,热爱算法和机器学习

文章分类

全部博文(1214)

文章存档

2021年(13)

2020年(49)

2019年(14)

2018年(27)

2017年(69)

2016年(100)

2015年(106)

2014年(240)

2013年(5)

2012年(193)

2011年(155)

2010年(93)

2009年(62)

2008年(51)

2007年(37)

分类: NOSQL

2014-04-03 14:39:34

原文地址:Mongodb chunk 分析器 作者:horizonhyg

      近日花时间写了一个Mongodb chunk分析脚本,主要功能就是分析分片的集合在每个片上的分布情况。Mongodb的sharding还是有一些问题,有时会由于片键选择不合理或者删除数据等情况,导致各个片上数据严重不均。Mongodb并没有提供合并chunk的功能,想要合并只能重新导入数据,这其实是个缺陷。虽然并不要求自动合并,因为这个对线上的负担太大,但是还是希望Mongodb能提供这么一个操作,在数据严重不均的时候能够合并分片,重新分配。

执行命令:

  1. python shard_chunk_analize.py --help

      
  1. python shard_chunk_analize.py -H 192.168.1.1 -P 27017 -u admin -p


大图连接http://blog.chinaunix.net/attachment/201310/22/15795819_1382455212mqsk.jpg

可以看出,第一个集合就是严重不平均的,因为之前删除数据,chunk并没有回收。
      Mongos的平衡器只是根据chunk数量去平均的,并不关心chunk里面的数据大小,这其实是比较有缺陷的。在这样的环境下,我们需要谨慎的选择片键,尽可能的让数据平均。


执行条件:
    python>=2.7 使用了OrderedDict
    pymongo>2.4.1 并未严格测试,之前版本也可能支持。
    请不要在系统压力大的情况下执行,切记!
    
脚本能力有限,见谅,大家如有需要,可自行修改,有任何bug请告诉我:horizonhyg#163.com
           shard_chunk_analize.zip

阅读(1552) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~