重复数据删除:
在计算中,重复数据删除是一种消除重复数据重复副本的技术。此技术用于提高存储利用率,还可以应用于网络数据传输以减少必须发送的字节数。在重复数据删除过程中,将在分析过程中识别并存储唯一的数据块或字节模式。随着分析的继续,会将其他块与存储的副本进行比较,并且每当发生匹配时,冗余块就会被指向存储块的小引用替换。假设相同的字节模式可能出现数十次,数百次甚至数千次,则可以大大减少必须存储或传输的数据量。
优势:
基于存储的重复数据删除减少了给定文件集所需的存储量。在非常相似或完全相同的数据的多个副本存储在单个磁盘上的应用程序中,这是一种{BANNED}最佳常见有效的方案。对于数据备份,给定备份中的大多数数据与以前的备份保持不变。普通备份系统试图通过忽略未更改的文件或存储差异来减少存储量。但是,这两种方法都无法捕获所有冗余。串联网络重复数据删除用于减少端点之间必须传输的字节数,这可以减少所需的带宽量。虚拟服务器和虚拟桌面可从重复数据删除中受益,因为它允许名义上将每个虚拟机的单独系统文件合并到单个存储空间中,改善了备份或制作虚拟环境的副本。
云祺建议
在我们
云祺容灾备份系统中,配置备份策略时也有着重复数据删除功能,开启重复数据删除后,将会对备份数据按指定块大小进行消重,有利于减少数据存储数据大小,计算重复数据会对备份速度有一定影响,当备份的虚拟机中有大量重复数据时可以开启重复数据删除,一般情况下默认关闭。
阅读(133) | 评论(0) | 转发(0) |