[发明专利]一种基于个性化本地差分隐私的数据收集方法在审
申请号: | 202110650478.9 | 申请日: | 2021-06-10 |
公开(公告)号: | CN113297621A | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 朱友文;贺星宇;宋仕宏;王钺程;李明洋;张帅 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06F21/62 | 分类号: | G06F21/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 211100 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 个性化 本地 隐私 数据 收集 方法 | ||
本发明属于信息安全领域,具体涉及一种基于个性化本地差分隐私的数据收集方法。该方法包括:服务器将原始数据集合划分,设置若干个隐私级别,划分结果与隐私级别公开。用户选择一个隐私级别,在本地对自己的原始数据进行编码扰动,并将扰动后数据发送至服务器。服务器收集数据并在各个隐私级别下进行统计分析,估算出原始数据的频率分布结果,并将每个隐私级别下的结果进行加权组合,得到最终的频率分布结果。本发明可以抵抗具有任意背景知识的攻击者和防止来自不可信第三方的隐私攻击;本发明从用户层面实现了个性化并考虑了不同数据的敏感性差异,使用户可以自行把控隐私保护力度,数据不会出现过度保护,服务器得到的估计结果更为准确。
技术领域
本发明属于信息安全领域,具体涉及一种基于个性化本地差分隐私的数据收集方法。
背景技术
随着信息技术的迅速发展,越来越多的个人信息被收集,并出于各种目的被分析研究。例如人们的位置信息会被收集,来进行路线规划或者景点推荐;人们的医疗记录会被收集,来进行健康风险的评估或者疾病的预期诊断。这些行为固然为用户带来了很大的便利,但是也会引发隐私泄漏的问题,比如泄漏个人的家庭住址或者健康信息。在这种环境下,如何保护个人信息,已成为社会普遍关注的问题。
差分隐私是由Dwork[DWORK,C.Differential privacy.In ICALP(2006),pp.1-12.]提出的一种隐私保护模型,与之前的大部分隐私保护模型不同,该模型由数学语言严格定义,其最大的特点就是可以对隐私保护程度进行量化,使人们可以清晰地知晓自己的隐私受到了何等力度的保护。而且该模型不关心攻击者具有多少背景知识,具有十分卓越的隐私保护功能。在差分隐私模型中,用户的原始数据在未加保护的情况下,直接发送给第三方服务器。服务器会对用户的原始数据进行扰动,以提供隐私保护。这要求我们在使用这一模型的时候,需要一个可信的第三方。但在实际应用中,很难找到一个完全可信的第三方,因此研究者们提出了本地差分隐私这一模型。
本地差分隐私是差分隐私的一个变种,与之前的模型不同,在本地差分隐私中用户的原始数据会在用户本地进行扰动,发送给服务器的数据并不是原始数据,而是用户在本地扰动后的数据。用户的原始数据只会被用户个人知晓,因此不像传统差分隐私那样需要一个可信的第三方,大大提高了模型的实用性。本地差分隐私的形式化定义如下:一个扰动算法PE:X→Y,其中X为定义域,Y为值域。该扰动算法满足∈-本地差分隐私,当且仅当,对于任意两个用户的数据x,x′∈X,以及任意可能的输出y∈Y满足不等式Pr[PE(x)=y]≤Pr[PE(x′)=y]*e∈ (Pr[PE(x)=y]表示该扰动算法输入x时,输出y的概率)。上述不等式中的∈被称为隐私预算,通常∈≥0。隐私预算这一参数可以用来衡量两个不同的原始数据映射结果的相似性,因此可以衡量该模型中隐私保护的力度。通常来说,隐私预算越大,隐私保护的力度就越小,但最后数据的估计准确度就越高。在应用本地差分隐私模型时,需要综合考虑用户的隐私保护需求和数据使用者的准确度需求,设置一个合适的隐私预算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110650478.9/2.html,转载请声明来源钻瓜专利网。