限定检索结果

检索条件"主题词=重复数据删除"
37 条 记 录,以下是11-20 订阅
视图:
排序:
基于重复数据删除的远程备份系统
收藏 引用
《计算机工程与设计》2012年 第12期33卷 4546-4550页
作者:姜涛 刘晓洁四川大学计算机学院四川成都610065 
针对传统远程备份中大量冗余数据导致备份效率低下和存储空间浪费的问题,设计并实现了一个基于重复数据删除的远程备份系统。首先根据文件的内容用Rabin指纹将备份文件划分为变长的数据块,把每个数据块的相关信息发送到备份中心,在备份...
来源:详细信息评论
一种基于重复数据删除的镜像文件存储方法研究
收藏 引用
《计算机科学》2016年 第S2期43卷 495-498页
作者:李锋 陆婷婷 郭建华东华大学计算机科学与技术学院上海201620 上海大学计算机科学与技术学院上海200444 
在云计算环境中,基础设施即服务的日益发展导致虚拟机和虚拟机镜像的急剧增加,例如,Amazon Elastic Compute Cloud(EC2)有6521个公共虚拟机镜像文件,这给云环境的管理带来了极大的挑战,特别是大量镜像文件带来的重复数据的空间存储问题...
来源:详细信息评论
基于重复数据删除技术的数据容灾系统的设计与测试
收藏 引用
《河北理工大学学报(自然科学版)》2011年 第3期33卷 73-81页
作者:廖海生罗定职业技术学院广东罗定527200 
针对当今企业海量数据的增长给数据容灾系统的存储容量、处理能力?、数据传输带宽带来巨大压力的现状,设计了一种基于重复数据删除技术的数据容灾系统。通过I/O吞吐量、cPU利用率、响应时间、数据备份时间和重复数据删除率等指标对...
来源:详细信息评论
一种基于相似性的分布式重复数据删除方法
收藏 引用
《中国新通信》2018年 第12期20卷 53-55页
作者:董楠楠 于悦 喻兰 文楠辽宁大学信息学院 
重复数据删除技术对降低存储设备成本等具有重要意义。重复数据删除系统通常会面临数据查询引发的硬盘瓶颈问题,而现有的硬盘瓶颈优化方案在面对海量数据处理请求时又有一定的局限性。针对上述问题,本文提出了一个有效的基于相似性的...
来源:详细信息评论
烟草工业数据灾备中重复数据删除技术研究
收藏 引用
《工业控制计算机》2013年 第12期26卷 22-23页
作者:张志杰 何利力浙江理工大学信息学院浙江杭州310018 
首先介绍了烟草工业灾备中重复数据删除技术重要要性,然后介绍了重复数据删除的最主要两种方法:基于哈希算法的重复数据删除和基于内容识别的重复数据删除。最后重点分析设计了适用于某综合营销平台系统数据备份恢复的重复数据删除策略...
来源:详细信息评论
无可信第三方的加密重复数据安全删除方法
收藏 引用
《密码学报》2018年 第3期5卷 286-296页
作者:张曙光 咸鹤群 王利明 刘红燕 侯瑞涛青岛大学计算机科学技术学院青岛266071 桂林电子科技大学广西密码学与信息安全重点实验室桂林541004 中国科学院信息工程研究所信息安全国家重点实验室北京100093 
重复数据删除已广泛应用在公共云服务中,该技术指相同的数据副本只在云服务器存储一次,若有相同副本出现,则云服务器为上传者创建访问该数据副本的链接.数据的哈希值相同则证明数据相同,这使得明文数据重复删除较为简单.然而多数用户为...
来源:详细信息评论
删除重复数据的一种数据备份方案
收藏 引用
《通信管理与技术》2012年 第5期 58-60页
作者:吴鹏 史芳芳中国移动通信集团设计院有限公司黑龙江分公司哈尔滨150080 
数据备份采用传统的D2T备份方式,由于受到磁带顺序读写机制和速度的限制,无法保证系统对数据备份窗口及恢复窗口的高要求,因此,出现了删除重复数据的D2D2T数据备份方式。这种方式不仅减少了数据重复,提高了数据备份速度,而且,大大减...
来源:详细信息评论
Web大数据环境下的相似重复数据清理
收藏 引用
《计算机工程与设计》2017年 第3期38卷 646-651页
作者:王闪 谭良四川师范大学计算机学院四川成都610101 中国科学院计算技术研究所北京100190 
为对Web大数据环境下的相似重复冗余数据进行清理,降低数据存储与管理的时间和成本,提出Web大数据相似重复数据清理方法。对Web数据进行预处理,提出相似哈希的实现算法计算各数据信息的相似度,对于满足特定阈值的相似数据信息,保留其中...
来源:详细信息评论
基于压缩近邻的查重元数据去冗算法设计
收藏 引用
《通信学报》2015年 第8期36卷 1-7页
作者:姚文斌 叶鹏迪 李小勇 常静坤北京邮电大学智能通信软件与多媒体北京市重点实验室北京100876 北京邮电大学计算机学院北京100876 中国铁道科学研究院机车车辆研究所北京100081 北京邮电大学可信分布式计算与服务教育部重点实验室北京100876 
随着重复数据删除次数的增加,系统中用于存储指纹索引的清单文件等元数据信息会不断累积,导致不可忽视的存储资源开销。因此,如何在不影响重复数据删除率的基础上,对重复数据删除过程中产生的元数据信息进行压缩,从而减小查重索引,是进...
来源:详细信息评论
一种基于云存储系统的自适应数据碎片恢复优化方法
收藏 引用
《北京理工大学学报》2018年 第8期38卷 841-847页
作者:贺秦禄 边根庆 邵必林 叶娜西安建筑科技大学信息与控制工程学院陕西西安710055 西安建筑科技大学管理学院陕西西安710055 
针对基于重删后云存储系统中数据碎片引起恢复性能降低的问题,采用自适应碎片分组设计了一个云存储系统中重删后优化数据恢复的处理方法.该方法不使用固定大小的读窗口,根据数据块地址关联性分成可变大小的逻辑组,旨在选择有限数量的容...
来源:详细信息评论
聚类工具 回到顶部