据 DoSTOR存储分析,2007年存储界三大热门技术分别为,重复数据删除、桌面虚拟化、磁带加密。后两者有所认识。
重复数据删除却是第一次听说。。。。
[@more@]找了一下资料大概了解一下,原来这个技术的主要目的是删除二级存储中的重复的数据,以释放空间。
举个例子:
某人制作了1MB的PowerPoint演示文档,然后以邮件附件形式发给内部20个人审阅。在传统备份环境下(没有重复数据删除),虽然文件没有任何变化,但每个附件都会在每晚完全备份过程中被全部备份,耗费不必要的磁盘容量(20×1MB)。
文件级重复数据删除却只保存一份PowerPoint文档备份,所有其他附件(如重复的拷贝)都被“指针”替代,从而释放磁盘空间容量。
我认为这种想法在这种情况下是好的,但是如果套用到数据库层面的备份来讲的话, 却是有点慌的。
拿oracle数据库的全备,增量备份来讲,如果第二次备份时也将重复的数据删除或者不备份的话,虽然空间是节约了,但是其实真正的冗余只有一份,如果原先独立的备份块坏掉了,必将导致后面所有的备份均无效,从而失去了保留多份备份意义。
还是那句话,任何新技术只有恰当地使用才能带来应有的好处。
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/100091/viewspace-906473/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/100091/viewspace-906473/
本文介绍了重复数据删除技术,该技术旨在通过消除二级存储中的重复数据来节省存储空间。通过实例说明,在邮件发送场景中,仅需保存一份备份并用指针替换其他重复副本,从而有效减少磁盘占用。然而,当应用于数据库备份时,该方法可能导致数据冗余不足,增加数据丢失的风险。
1万+

被折叠的 条评论
为什么被折叠?



