[发明专利]一种基于访问频度变长逻辑分段的数据分发方法有效
申请号: | 200910085125.8 | 申请日: | 2009-06-02 |
公开(公告)号: | CN101645888A | 公开(公告)日: | 2010-02-10 |
发明(设计)人: | 王劲林;尤佳莉;王玲芳;李廷屹;邓浩江 | 申请(专利权)人: | 中国科学院声学研究所 |
主分类号: | H04L29/06 | 分类号: | H04L29/06;H04L29/08;H04L12/56;H04L1/00 |
代理公司: | 北京法思腾知识产权代理有限公司 | 代理人: | 杨小蓉 |
地址: | 100190北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于访问频度变长逻辑分段的数据分发方法。该方法通过将文件切分成细粒度的单元,基于用户在文件不同时间段上访问频度的差异,为文件生成变长逻辑分段,然后针对不同逻辑分段分别进行基于流行度的多副本放置,并为每个逻辑分段生成多级索引项,同时根据文件的副本等级调整更新文件的索引项,使数据在CDN网络中的副本分布更加符合用户的实际访问习惯。同时,细粒度的文件切片,使得用户访问行为的统计更加精准,便于对用户访问频度特征基于时间变化的更新,并应用于内容分发的副本生成上,使系统中的数据分布自适应的随时间进行调整。另外,多级索引的应用,有效降低了数据副本等级调整时所带来的通信开销,提高了系统性能。 | ||
搜索关键词: | 一种 基于 访问 频度 变长 逻辑 分段 数据 分发 方法 | ||
【主权项】:
1、一种基于访问频度变长逻辑分段的数据分发方法,对于分发到网络中的文件f,分发过程如下:1)将文件f切分为大小相等的小数据块ub序列{ub1,ub2,...,ubn};2)根据文件f的初始用户访问概率分布函数g(x),计算得到每一个ubi的访问概率积分,整个序列的概率为{q1,q2,...,qn};3)通过合并算法,将ub序列进行合并,生成数据片断序列{seg1,seg2,...,segk},并为每个数据片断seg计算流行度和副本等级,其中,副本等级计算方法如下:假设D(l)是计算副本数目的函数,其只跟副本等级和总节点数相关,则目标方程为: 其中,km为第m个文件的数据片断数目;cm,k为第m个文件中第k个数据片断seg中所包含的小数据块ub数目;lm,k为第m个文件中第k个数据片断seg所对应的副本等级数,通过数值分析中的线性规划算法估计该lm,k的值;qm,k为第m个文件中第k个数据片断seg对应的用户访问概率,A为预设的平均延迟;4)根据所述步骤3)中的计算结果,得到所有数据片断seg的副本等级数,同时对应了所有小数据块ub的副本等级,然后对文件的所有小数据块ub根据其等级在CDN网络中进行放置,在放置时,假设ub的副本等级为L,首先计算小数据块ub的ID号,根据DHT路由算法找到当前ub的主节点;然后将小数据块ub以及对应副本等级等相关信息下载到主节点;再通过主节点的路由表找到与主节点的ID匹配L位的所有节点,将ub复制到这些节点上;5)为每个数据片断seg生成其一级索引项,其信息包括:每个小数据块ub的大小、数据片断seg中小数据块ub的起始和结尾序号、数据片断seg中所有小数据块ub的ID列表以及更新时间,并根据数据片断seg的副本等级将一级索引项分布在CDN网络中;6)通过整个文件的流行度信息,计算整个文件若不进行切分时对应的副本等级lall;7)对每个文件生成二级索引项列表,包括:数据片断seg的ID列表、数据片断seg的开始和结尾ub序号以及每个小数据块ub大小,以文件名的哈希值作为键值,并通过整个文件的副本等级lall对二级索引项进行放置,放置方法与所述步骤4)中的方法相同;8)文件放置完成后,以根据实际应用而选择的时间T为周期观测用户对文件不同小数据块ub上访问频度的变化,重新计算数据片断seg逻辑分块中的小数据块ub数目和首尾序号、访问流行度以及副本等级,并根据新的副本等级调整小数据块ub的副本数目,同时更新文件的一级和二级索引项。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所,未经中国科学院声学研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/200910085125.8/,转载请声明来源钻瓜专利网。