Chinaunix首页 | 论坛 | 博客
  • 博客访问: 503420
  • 博文数量: 704
  • 博客积分: 39800
  • 博客等级: 大将
  • 技术积分: 4950
  • 用 户 组: 普通用户
  • 注册时间: 2008-10-15 13:32
文章分类

全部博文(704)

文章存档

2011年(1)

2008年(703)

我的朋友

分类:

2008-10-15 13:40:16

    中国IT实验室8月29日消息,虽然的售价一直都在不停的下降,但也远远赶不上公司内需要保存和备份的数据量的攀升速度。那么,是否有这样一种解决方案,它能够压缩大量的已有数据(压缩率达到1:10~1:20),释放大量的空间,大大降低基于磁盘备份的成本?这正是重复数据删除(data de-duplication)技术为我们所许下的承诺。

    Curtis Preston是GlassHouse公司负责数据保护的副总裁,同时也是一位备份和存储领域内的专家,对此他就说道:“每一个拥有大量数据的用户至少都应该试一试重复数据删除技术。”

    但当谈到购买具体的重复数据删除方案时,Preston并没给出具体建议。目前这个领域内已经有了很多竞争者,其中很多厂商的重复数据删除方案已经正式推出。这些重复数据删除方案各自的实现方式各有不同,因此有些方案可能对某些用户来说是很好的选择,但另换他人的话就不一定合适了。

下面我们就为打算选购重复数据删除解决方案的用户提供一些建议:

选购的基础

    重复数据删除技术之所以对各个规模的用户都是一个有吸引力的选择,主要是由于这项技术确实能够为那些至少拥有数TB备份数据的用户节省成本。

    但专家Preston也提醒那些打算实施此项技术的用户必须要明白,“就压缩率这个问题而言,不同用户所得到的最终结果也会各不相同。”

    “一般说来,1:10的压缩比率是比较保险的数值,”他说道,“有很多用户在使用1:20的压缩率。但是没有一个人最后可以达到这样的效果。你最终得到的实际结果很大程度上取决于你的备份数据类型和备份方式。”

    这主要看你是否拥有众多的异地站点或经常外出办公的员工,或者是否打算在一个集中的数据中心内实施数据删除。虽然你能够找到可同时兼顾这两种情况的重复数据删除方案,但一种方案并不会对所有的用户都适用。

[1]   


--------------------next---------------------

阅读(162) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~