Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1212360
  • 博文数量: 1211
  • 博客积分: 10010
  • 博客等级: 上将
  • 技术积分: 14340
  • 用 户 组: 普通用户
  • 注册时间: 2008-06-09 11:20
文章分类

全部博文(1211)

文章存档

2011年(1)

2008年(1210)

我的朋友

分类: 服务器与存储

2008-06-11 17:17:58

重复数据删除技术如字义所言,就是不存储重复的部分,以减少空间的耗用。透过重复数据删除技术,想办法找出相同的部分,相同的只存储一份,并且以索引技术来记录,一旦需要还原时就能恢复出原来的文件。

存储空间不足,一直是IT人员头痛的事,因为不只是要添购存储设备,更要面临调整存储架构后接踵而至的种种设定工作。这些工作的复杂繁琐就不用说了,在扩充存储容量的过程中,更可能需要停机,这会严重影响到企业的正常营运。

企业为了保护数据必须定期执行数据备份,这是数据快速累积的原因之一。尤其现今有些企业开始先备份至速度较快的磁盘,再逐次备份至磁带等设备,对于必须赶在当日下班至隔日上班前完成大量备份的企业而言,磁盘备份是个好方法,备份快、回复也快,但磁盘备份无疑会加速磁盘空间的消耗。

虽然磁盘备份快速吃掉存储空间,但企业也绝不会因此而减少备份的次数,因为这会牺牲数据保护的可靠度,增长备份周期换取存储空间只是个舍本逐末的作法。随着电子化应用的加深,不只是数据备份,每个企业都希望保存自身营运的历史记录,藉此作为企业决策分析的依据,因此未来数据累积的速度绝对是不断提高的。

既然很难有好方法可以抑制数据增长,技术研发转而思考:有没有其它的方式可降低数据占用空间呢?近来有一种技术倍受关注,就是“重复数据删除(Data De-duplication)”技术。

重复数据删除技术如字义所言,就是不存储重复的部分,以减少空间耗用。以重复性最高的数据备份来说,如果每个备份档的差异只有30%,也就代表有70%的空间白白浪费。重复数据删除技术就是要想办法找出相同的部分,相同的只存储一份,以索引技术来记录,需要还原时就能回溯计算出原来文件的组成型式。

对于重复数据删除技术,有厂商宣称可节省高达500倍以上空间的惊人效果,重复数据删除技术真有这么神奇吗?经过测试发现,要获得节省500倍存储空间的效果,在某些特定状况下、增加备份次数或许是可能的,在全备份测试中,备份到第5次就测出了节省超过20倍存储空间的成果。
阅读(399) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~