2012年(48)
分类: LINUX
2012-11-05 20:54:40
如上面所说,MongoDB 2.2版本中不再有凌驾于整个daemon上的全局锁,而是将锁的粒度减小到了DB级别。并且按MongoDB 的 Dwight Merriman所说,这次虽然没有一步到位的将锁粒度改到collection级别,但是从全局锁到DB 锁这一步,已经完成了锁粒度细化的最艰难部分工作,相信collection级别的读写锁会很快到来。
除了减小锁粒度外,MongoDB对2.0 版本中的锁抑制功能也进行了一些增强,引入了PageFaultException 来进行锁抑制的判定。
感兴趣的朋友可以看看这个演讲及PPT:http://www.10gen./presentations/concurrency-internals-mongodb-2-2
2.新的统计框架统计操作一直不是MongoDB 的强项,这次版本MongoDB 对统计工作的易用性又进行了提升。在新的统计框架中,不需要再使用mapreduce方法去进行统计,而是使用统计框架提供和各种方便易用的函数来实现。这个在NoFan之前的文章中也有介绍,见:http://blog.nosqlfan.com//3648.html
文档: Aggregation Framework参考: Aggregation Framework Reference例子: Aggregation Framework Examples在2.2版本中,可以人为的对数据的分片方式进行一些控制,从而使得数据能放到合适的分片节点上(这里所谓的合适,通常来说就是数据离要使用它的应用层更近)。具体的做法是通过对分片节点打tag标识,再将sharding key 按范围对应到这些标识上。比如我们设定sharding key在范围 [a, b]之间时,数据需要放到tag为BeiJing的节点。在[b, c]之前,数据放到tag为TianJin的节点。然后我们再对不同的分片节点打上不同的tag。这样对应sharding key在某个范围内的数据就会在我们的控制下存储到指定的分片节点上了。
详见:
4.TTL的collection我们知道,MongoDB的capped collection,它保持数据在一定大小和条数范围内,在collection大小超量后,采用移除老数据的方式对进行循环利用。capped collection被大量使用在日志及队列中,具有很高的性能,但是其灵活性一直不高。
在2.2版本中,MongoDB又引入了TTL collection(TTL == time to live),你可以在给某个字段建立索引的时候指定多长时间后删除掉对应的记录。建立索引的字段必须是date类型的。这样我们就可以灵活的控制数据的过期,可以更方便的存储和管理临时数据。
详见:
更多介绍:
下载地址: