[发明专利]一种适应大数据应用的快速重复数据删除方法有效

专利信息
申请号: 201310228696.9 申请日: 2013-06-08
公开(公告)号: CN103324699A 公开(公告)日: 2013-09-25
发明(设计)人: 张兴军;朱国峰;董小社;朱跃光;王龙翔;姜晓夏 申请(专利权)人: 西安交通大学
主分类号: G06F17/30 分类号: G06F17/30;G06F11/14
代理公司: 西安通大专利代理有限责任公司 61200 代理人: 蔡和平
地址: 710049 *** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供一种适应大数据应用的快速重复数据删除方法,适用于大数据应用下的备份去重系统,解决传统基于内容识别的变长分块算法去重速率低,不能快速识别冗余数据问题;本发明在分块过程中通过调节去重因子和加速因子,在确保去重率的前提下大幅提高去重速率,能够快速进行去重检测,平衡了去重率和去重速率之间的矛盾,降低了备份窗口,节约了网络带宽和存储空间。
搜索关键词: 一种 适应 数据 应用 快速 重复 删除 方法
【主权项】:
一种适应大数据应用的快速重复数据删除方法,其特征在于,包括以下步骤:(1)用户定制备份任务,形成备份文件流;(2)通过一个固定长度窗口在备份文件流上按字节进行滑动,每滑动一个字节就采用RabinHash函数计算一次窗口内数据指纹值,记为rhashvalue;(3)判断步骤(2)所计算的指纹值是否满足边界点条件:rhashvalue%D=r;其中,D为除数,其值随机确定;r为模数,取值为D‑1;若不满足,则转入步骤(2)继续进行滑动窗口;若满足,则转入步骤(4);(4)以步骤(3)找到的满足边界点条件的窗口位置为界对备份文件流进行划分,形成CDC变长块,同时记录变长块个数以及当前边界点位置,同时进入步骤(5)和(8);(5)判断备份文件流是否划分结束,若结束,则整个分块过程结束;若未结束,则进入步骤(6);(6)判断CDC变长块个数是否等于去重因子,若不相等,则转入步骤(2)继续滑动窗口;若相等,则进入步骤(7);(7)清零CDC变长块个数,即重新开始计数,并且从上一个划分的块的边界点位置开始按加速因子进行固定长度分块,同时进入步骤(5)和步骤(8);(8)计算CDC变长块或定长块hash值,并进入步骤(9)去重检测过程;(9)检索hash表,查询hash值是否存在,若存在,则更新hash表对应hash值引用次数;若不存在,则存储hash值及相应数据块内容。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201310228696.9/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top