[发明专利]一种基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法有效
申请号: | 202010570068.9 | 申请日: | 2020-06-21 |
公开(公告)号: | CN111723402B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 张德干;陈露;杜金玉;张捷;张婷;姜凯雯 | 申请(专利权)人: | 天津理工大学 |
主分类号: | G06F21/62 | 分类号: | G06F21/62;G06N7/01;G06N20/00;G06F18/24;H04W28/10 |
代理公司: | 天津耀达律师事务所 12223 | 代理人: | 张耀 |
地址: | 300384 *** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 ql 学习 策略 面向 mdu 隐私 数据 保护 流量 补偿 激励 方法 | ||
1.一种基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于该方法主要包括如下步骤:
第1、系统模型的构建:
第1.1、MCS-MEC隐私保护系统模型;
第1.2、差分隐私保护策略;
第1.3、机会协作传输;
第1.4、问题描述;
第2、QLPPIA方法:
第2.1、属性相关性估计;
第2.2、私有化策略;
第2.3、恢复、聚合策略;
第2.4、基于QL协作上传的流量补偿激励策略;
步骤第1.1中建立了MCS-MEC隐私保护系统模型,即在每个MCS区域中,根据EC的覆盖范围对其进行部署,MCS云只需要完成发布和接受感知数据的工作,将分配感知任务、生成私有化策略、聚合和恢复感知数据的工作量交由EC处理;EC收集的感知数据受到本地隐私保护,EC收集的感知数据受到本地隐私保护的感知结果不会泄漏MDU的隐私信息;采用MCS-MEC模型,EC聚合所有私有化感知数据,并恢复感知结果的真实数据,减少MDU向MCS云上传的感知数据量;
步骤第1.2中的差分隐私保护策略,是在MDU收集到的感知数据集中加入仔细校准的噪声,阻止攻击者从感知结果数据集中推断出任何MDU的隐私信息;对于任何移动设备用户i,原始感知数据Mi∈S,其中S为MDU收集的原始感知数据集,私有化感知数据Mi*∈S*,其中S*为私有化的感知数据集;私有化策略K是输入感知数据记录{Mi}∈S并且输出{Mi*}∈S*的随机算法,满足隐私预算η∈(0,+∞),如公式(1)所示:
K({Mi}∈S*)≤eη*K({Mi+1}∈S*) (1)
其中,K({Mi*}∈S)=prob({Mi*}∈S*|M=Mi),prob为感知数据的概率统计;
步骤第1.3所述的机会协作传输描述如下,采用机会协作传输感知数据,减少MDU对通信基础设施的依赖和其本身的流量开销,根据MDU移动过程中的相遇机会,当MDU接收到上一跳MDU的感知数据后,携带感知数据直到相遇下一跳MDU,再把其感知数据转发出去,机会协作传输减少MDU完成大数据量的感知任务时的流量消耗;
步骤第1.4中的问题描述为:在本地差分隐私前提下,研究多维属性数据的分布式感知数据扰动、聚合;不受信任的EC需要聚合所有MDU的多维属性感知数据并得出感知结果,实现最佳准确性的感知结果;准确性表示为聚合私有化的感知结果能够还原感知数据真实信息的程度;
假设原始感知数据集和私有化感知数据集分别为X和X*,其分别对应的感知数据为Wi和Wi*,私有化感知数据Wi*∈X满足公式(2):
私有化策略的精确性C表示为公式(3):
C[K]=prob[Wi]-max[Wi*] (3);
步骤第2.1中的属性相关性估计方法如下,针对g维的真实感知数据集,使用贝叶斯先验概率和MCMC后验概率,迭代并更新属性相关性,其中:2≤g≤d;将属性相关性引入私有化策略中,使得感知结果更加精确,同时保证MDU个人的属性相关性隐私;感知数据的属性相关性的估计,首先由先验概率推测,再计算出后验概率,用后验概率的期望更新先验概率;
属性相关性Relationx,y根据属性间的相互信息计算,如公式(4):
Ax和Ay的取值范围分别是Vx和Vy,P(a)和P(b)分别表示和发生的概率,P(ab)表示这两者同时发生的概率,初始先验概率为公式(5):
基于MCMC后验分布的估计,蒙特卡罗优化概率方法:采用Metropolis-Hastting随机抽样方法,需要大量的感知数据使其结果接近最真实概率;由于马尔科夫链的收敛性,采用MCMC方法解决复杂的后验分布进行多维属性数据运算的问题;为待估计属性值的后验分布生成平稳分布的马尔科夫链,采用Metropolis-Hasting抽样算法从该链中生成后验分布数据,对后验分布数据计算蒙特卡洛积分;
步骤第2.2所述私有化策略描述如下:
算法1QLPPIA方法的私有化算法的步骤描述如下:
步骤1:所有感知结果根据公式(4)生成属性相关性,生成感知数据集;
步骤2:生成私有化策略;
步骤3:生成并返回私有化感知数据集的结果;
步骤第2.3所述恢复、聚合策略描述如下:
算法2QLPPIA方法的恢复、聚合感知数据算法的步骤描述如下:
步骤1:遍历每个私有化感知数据,计算其属性相关性;
步骤2:遍历每个属性,将属性相关性最高的感知数据添加到私有化数据集中;
步骤3:返回聚合和恢复的感知结果数据集;
步骤第2.4所述基于QL协作上传的流量补偿激励策略描述如下,QLPPIA方法的激励策略中包含MDU分类和MDU上传:1)MDU分类是由EC得出的,通过感知数据量和基于QL的移动路径预测将MDU分为流量月租型移动设备用户MMDU和即用即付费型移动设备用户IMDU;2)MDU上传策略采用QL机会协作传输,当MDU之间相遇或者连接上蓝牙、WiFi、热点,该上传策略将作出上传或者保留感知数据的选择;最后由QL算法得出最大化路径价值的感知数据传输方式,即最小化流量消耗的传输方式。
2.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,流量补偿激励策略运行的前提是对MDU进行精确的分类,第x个MDU在第y个感知周期内的感知数据大小表示为Sx,y,感知任务分为相同数据量的感知任务和不同数据量的感知任务,相同数据量感知任务的数据大小表示为公式(6):
Sx,y=c (6)
其中,c为历史估计感知数据量大小的常数,表示对于不同的MDU和感知周期,完成感知任务收集的感知数据大小相同;
不同数据量感知任务的数据大小表示为公式(7):
Sx,y=c+t×Lx,y+ηx (7)
其中,c为历史估计感知数据量大小的恒定常数,用于聚合感知数据,t是不同位置的单位感知数据规模,Lx,y是第x个MDU在感知周期y中访问的位置总数,ηx表示不同MDU的隐私保护级别;
通过QL方法不断更新和维护MDU的移动路径,预测IMDU是否在感知周期内进行QL机会协作传输,而不消耗自身流量的概率,第x个MDU在感知周期y中QL机会协作传输的概率服从泊松分布,表示为公式(8):
Jx,y=(|Gy|-cooperation(x,Gy)·e)/|Gy| (8)
QL感知数据上传策略是不同类别MDU相互协作上传感知数据的算法,在MDU收集和私有化感知数据后,决定IMDU使用3G/4G/5G流量上传数据,或者借助蓝牙、热点、WiFi上传数据,或者转发给其他MMDU上传数据,或者保留感知数据;
在MCS-MEC的学习环境中,IMDU和MMDU为学习主体,QL作为一种无监督的智能学习算法,实时与周围环境交换感知数据,学习过程中不断迭代更新路径价值元组,QL上传策略的目标找到找到流量消耗最少的路径,QL上传策略与隐私预算,感知数据的大小,机会协作传输的概率三者相关,标准的QL学习方法得到的需要更新的路径价值QIMDU(EC,NMMDU)函数表示为公式(9):
其中,IMDU为即用即付费型MDU,MMDU为流量月租型MDU,NNMMDU为IMDU相邻MMDU的集合,EC为传输范围内的边缘中心,I为QL的初始路径价值,为到达EC时IMDU与其相邻NMMDU的路径价值最大值;
结合实际情况改进公式(9)得到新的QIMDU(EC,NMMDU)函数为公式(10):
打折因子δ作为重要因素决定一次协作上传时间获得的路径价值,隐私预算ηMDU是MDU上传感知数据的个性化隐私级别,将隐私级别作为打折因子,决定QL方法的路径价值;
对于MDU的流量补偿包括IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励三个方面,需要解决的问题为最小化流量补偿函数如公式(11):
其中,TCIMDU,TCMMDU,rewardIM分别为IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励;
MMDU流量补偿:任务组织者按比率补偿MMDU流量月租费用,并会对其超出月租之外的流量费用作出补偿,MMDU的流量补偿函数为公式(12):
其中,P为MDU的流量补偿比率,当thresholdi≤P≤1时,MDU愿意参与感知任务,thresholdi为每个MDU比率P的阈值,overtraffic为超出MMDU的流量大小,costMMDU和costIMDU分别为两种MDU的流量补偿单价;
IMDU的流量补偿:任务组织者补偿IMDU完成感知任务消耗的全部流量,IMDU的流量补偿函数为公式(13):
其中,JIMDU,y为IMDU进行QL机会协作传输的概率,SIMDU,y为IMDU在感知周期y内的感知数据大小;
QL迭代更新生成的路径价值也对激励函数有重要作用,对于MDU的激励函数表示为公式(14):
rewardIM=(costIMDU/(1+ε·qMDU,y))·SIMDU,y+QIMDU(EC,NMMDU) (14)
其中,qMDU,y表示MDU的剩余电量,ε表示影响奖励程度,ε>0,QIMDU(EC,NMMDU)为多次迭代更新QL机会协作传输的路径价值;
QLPPIA方法的激励算法的详细步骤,第一步是完成对MDU的分类;第二步是根据公式(8)计算MMDU协助IMDU传输感知数据的概率;第三步是读取数据表中MDU的电量使用情况;第四步是根据公式(10)计算QL上传策略的路径价值,根据公式(12)计算MMDU的流量补偿值,根据公式(13)计算IMDU的流量补偿值,根据公式(14)计算MDU的激励函数,得出激励MDU的奖励值;第5步是根据公式(11)计算最小化流量补偿函数,并返回流量补偿的最小值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津理工大学,未经天津理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010570068.9/1.html,转载请声明来源钻瓜专利网。