Chinaunix首页 | 论坛 | 博客
  • 博客访问: 6724
  • 博文数量: 6
  • 博客积分: 400
  • 博客等级: 下士
  • 技术积分: 120
  • 用 户 组: 普通用户
  • 注册时间: 2009-09-15 13:54
文章分类
文章存档

2011年(1)

2009年(5)

我的朋友
最近访客

分类: 网络与安全

2009-09-24 09:32:52

    重复数据删除(Data deduplication)无疑是存储行业近年来最热闹的技术,它消除了传统备份技术

衍生出的重复存储数据问题,进而为企业节省成本。然而,今日的企业面临的数据保护问题相当复杂,备

份数据重复储存的问题仅仅是冰山一角,但在某些重复数据删除厂商的华丽包装下,这一技术成了解决所

有数据保护问题的“万能药”,导致用户对重复数据删除产品过多的期望,在对技术本身了解不够、欠缺

全盘考虑的情况下便贸然部署了重复数据删除方案,结果却往往不如预期,甚至付出比省下的磁盘还要高

的成本,因小失大、得不偿失,详情您可以点击他可以帮你解决所有的有的安全隐患。

    用户在选择具备重复数据删除技术的产品时,如何针对真正需求理性做出判断,而不被销售广告和专

业术语所迷惑呢?不妨参考以下五项建议:

    不要掉入重复删除比率的迷局

    几乎所有重复数据删除产品厂商都会强调自己可以达到多高的重复数据删除比率,有些甚至宣称可以

达到500:1这样不可思议的数据。事实上,重复数据删除比率完全取决于数据的类型和备份策略,跟技术

本身的关联并不大。举例来说,如果数据的类型为Office文件、电子邮件,由于数据结构本身的重复性高

,能被删除的部分自然就比较多,如果是已经压缩过的影音、图片等文件,重复数据删除的效果就相当有

限;采用全备份的重复数据删除比率,也远大于增量或差量备份,因此,比较不同产品之间的重复数据删

除比率其实是没有意义的,更不能借些来判别产品的优劣。

    不能影响服务器性能

    某些采用资源端重复数据删除技术的解决方案,必须在生产服务器上安装代理程序来执行重复数据删

除,无可避免的给生产服务器造成了相当大的性能负担。任何改变传统的数据保护方式,都必须建立在不

影响系统运行的前提下才能被接受,换句话说,服务器的性能绝不能受到数据保护方案的牵制(无论是应

用服务器还是,因此在这个前提下,目标端重复数据删除技术才是最理想的选择。以飞康最新推出的FDS

为例,只对备份到FDS内的数据进行分析比对,然后再删除重复数据,前端服务器不需要安装代理程序,

所有运行负载也都集中在FDS上,重复数据删除工作对生产服务器的性能毫无影响。

阅读(315) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~