数据冗余是数据大量增长的一个主要原因。最初的重复数据删除集中在清除完全备份、电子邮件附件和 VMware的图像等中的冗余数据。然而,随着时代发展,客户们已经开始意识到重复数据无处不在。
在一个机构中测试并开发数据多样化,如数据复制、备份以及归档,可以产生多个数据复制份数,它们分布在 整个企业系统中。有时为了方便,用户还将复制数据到多个地方。
调查结果显示,数据的多个复制份数迫使企业购买、使用并管理的存储要比他们实际需要的大2至50倍。鉴 于此点,企业认识到:重复数据删除技术应该成为企业整体IT战略中一个必须且强制的部分,而不仅仅是IT领域中的一项技术。
需要进行重复数据删除的企业
最需要重复数据删除解决方案的是中小企业,以及遇到以下问题的企业客户:
*数据成指数增长,导致存储成本大量增加
*备份窗口减少或不足
*恢复时间较长,尤其是那些没有存储在主备份媒介的旧数据
*存在将磁带发送到灾难恢复(DR)网站的成本、风险以及复杂性的问题
*备份和系统归档的较慢吞吐能力
* eDiscovery,承诺和SLA需要
* LANs和WANs昂贵的瓶颈
在评估重复数据删除解决方案的时候,IT决策者应该考虑到以下几个重要指标:
*无需昂贵硬件升级的扩展能力
*更多的恢复点和较短的恢复时间
*点击式重复数据删除管理
*多个厂商间的重复数据删除的内置报告,数据类型、来源以及平台
*能够与将终端用户的故障时间降为最低的所需要的所有程序整合在一起
*简化部署和管理的简单的单一解决方案
*能够跨地点、应用程序、存储介质以及分制进行迅速安全地恢复重要的业务数据
*在数据恢复中进行快速,全面的搜索
*数据的完整性和安全性功能
*内置灾难恢复能力
*数据分类
*高效益和及时的eDiscovery
*使用共同的技术平台
*单点管理
部署重复数据删除解决方案的挑战
如同磁盘到磁盘备份或服务器虚拟化,不应该把重复数据删除技术 看成是孤立的产品和性能。客户必须在他们整体的数据管理和存储战略中考虑重复数据删除更广泛的影响。部署重复数据删除解决方案的共同挑战是其性能如何,增 加管理的复杂性以及重复数据删除群的增加
1.性能
发现并消除冗余的数据对基于设备的重复数据删除解决方案来说是非常昂贵的。如果没有重复数据环境背景信 息,那么包括较大企业在内的企业都面临很大的挑战。
如果数据按顺序书写,那么存储系统会运行得很好。然而,那些较小的数据集会损坏大多数重复数据删除解决 方案的磁盘性能。在多个对象间共享数据,基于设备的重复数据删除会导致大量的数据碎片工具分布在系统中。随着时间推移,在基于设备的重复数据删除上的读、 写、备份以及复制性能将会变得极度缓慢。
2.增加管理的复杂性
如今的许多重复数据删除解决方案的运行看起来需要整个系统都为其服务,想要将数据从重复数据删除设备移 到D2D2T工作流程的磁带上几乎是不可能的。要想受益于网络优化,企业就必须在其远程办公场所安装新的硬件或软件。
许多重复数据删除解决方案需要一个独特的硬件和软件的组合,或需要企业购买手工操作或个人操作的新的独 立设备。增加的管理复杂性降低了您的存储和网络储蓄,尤其是您有大量的重复数据要删除。
3.群重复数据删除
独有的解决方案锁定了厂商,并将较差的性能添加到了他们专有的存储布局中。想将数据从一个重复数据删除 设备移到其它存储系统的可能性很小。
重复数据延伸至多个存储层,包括数据复制、归档以及测试和开发副本。通常,重复数据删除解决方案只能涉 及其中的一个领域。因此,您减少了进一步降低存储消耗的机会