2008年(8065)
分类: 服务器与存储
2008-12-03 10:35:52
重复数据删除技术的弱点,最近被一位国外专业存储网站的资深撰稿人Henry Newman指了出来。这位在高性能计算和存储行业从事了27年的顾问毫不客气的说道:“跟以前一样,我不打算对比不同厂商的产品或者技术,我只想谈谈企业在考虑购买重复数据删除软件或硬件时,必须向厂商咨询一个重要问题,就是‘数据损坏’的问题。有人可能会想,重复数据删除与数据损坏有什么关系呢?为了对这一译文做出解答,我将从通用硬件和软件的角度来分析。”Henry Newman这里提到的“数据损坏”,正是在重复数据删除技术热潮过后,最近被很对业内人士关注的焦点。
如果对备份的数据进行一下对比就会发现,正确的数据和损坏后的数据的ASCII码可能会发生很大变化,大部分字节都损坏了。这就是为什么现在要讨论“数据损坏”,辛苦保存的数据,有可能再不能被读取,即便备份技术再先进,但是在“数据损坏”面前将一无是处。
Henry Newman谈道,“数据不定期损坏并非一定会发生,即使是发生数据损坏事故的概率远低于廉价SATA的高端企业光纤信道驱动器也不能例外。 另外,发生问题的部件不一定是驱动器或者控制器,也可能是内存、CPU或者别的什么部件。归结为一点就是,数字世界中的数字资料肯定有可能会损坏。 虽然发生数据损坏事故的情况跟使用的操作系统、硬件和软件都有关系,即使是运行在基于MVS多重虚拟存储系统的IBM大型机上也可能发生数据损坏事故,只是概率要比系统低很多。”
数据损坏到底跟重复数据删除有什么关系?其实很好理解,如果你打算删除重复的数据,你就必须保证你拥有的那些数据是完好的。比如,如果数据从一开始就出错,在磁盘上就已经受损了怎么办?重复数据是在内存中创建的,是好的,但是磁盘上的数据却是坏的。 也就是说,用一个好的重复数据建立了数据,但是一旦从磁盘读取数据,数据就变成坏的了。那么在进行数据对比时会怎么样? 如果再次读取,可能就能够得到正确的数据。但是如果数据被写入磁盘时的日期出错,你是否还能读取那些文件呢?这个问题其实非常可怕。