[发明专利]一种具有可解释性的图像隐私检测方法有效

专利信息
申请号: 202110723826.0 申请日: 2021-06-29
公开(公告)号: CN113378859B 公开(公告)日: 2022-07-15
发明(设计)人: 张兰;于海阔;李向阳 申请(专利权)人: 中国科学技术大学
主分类号: G06V10/44 分类号: G06V10/44;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08;G06F16/951
代理公司: 安徽省合肥新安专利代理有限责任公司 34101 代理人: 陆丽莉
地址: 230026 安*** 国省代码: 安徽;34
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 具有 解释性 图像 隐私 检测 方法
【权利要求书】:

1.一种具有可解释性的图像隐私检测方法,其特征是按如下步骤进行:

步骤1,构造隐私分类的数据集;

步骤1.1,利用网络爬虫收集社交平台上脱敏处理后的N张打码图像;

步骤1.2,标注每张打码图像中所有物体和背景的边框信息和类别,从而得到N张打码图像的物体类别数为K;

步骤1.3,对每张打码图像中物体和背景,若其经过脱敏处理,则标注为1,否则标注为0,从而完成每张打码图像中物体的隐私分类,并得到脱敏图像数据集D;

步骤2,抽取图像中所包含的语义信息;

步骤2.1,基于脱敏图像数据集D对faster-rcnn模型进行训练,得到目标检测模型M1

任意一输入图像I经过所述目标检测模型M1后输出检测结果M1(I)={o1,o2,…,oi,…,on},其中,oi表示包含边框信息Bi和分类的置信概率的第i个物体信息,n表示目标检测模型M1在输入图像I上检测的物体个数,i∈[1,n];

步骤2.2,基于place365数据集对vgg模型进行训练,得到背景分类模型M2

任意一输入图像I经过背景分类模型M2后输出背景分类结果M2(I)={s1,f1},其中,s1表示背景分类的置信概率,f1表示背景分类模型输出的特征向量;

步骤3,构建输入图像I对应的加权有向图GI={VI,EI};

步骤3.1构造节点集合VI

对于第i个物体信息oi,构建相应的嵌入向量并作为相应的节点从而得到n个节点{v1,v2,…,vn};其中,表示第i个物体信息oi对应的长度为K的置信概率向量,表示第i个物体信息oi对第K个类别的置信概率,表示第i个物体信息oi对应的边框信息,表示边框的中心点在输入图像I的像素矩阵中的坐标,表示边框的相对大小;

利用如式(1)所示的多层感知机将置信概率s1和特征向量f1映射到一个长度为K+3的背景节点vn+1中,从而得到节点集合VI={v1,v2,…,vn+1};

vn+1=(s1||f1)×Wn+1 (1)

式(1)中,Wn+1表示多层感知机的参数矩阵,·||·表示向量的拼接;

步骤3.2构造邻接矩阵EI

计算任意第i个节点vi的边框boxi和第j个节点vj的boxj是否重合,若重合,则利用式(2)计算重合的像素面积S(boxi∩boxj)占据边框boxi面积的比例EI[i,j],若没有重合,则令比例EI[i,j]=0;从而得到邻接矩阵EI={EI[i,j]|i=1,2,…,n;j=1,2,…,n};

式(2)中,S表示像素面积;

步骤4,构建由l1层图卷积层和l2层感知机组成的图神经网络M3,并基于脱敏图像数据集D进行训练,从而利用图神经网络M3得到加权有向图GI={VI,EI}中每个节点的二分类输出;

步骤4.1利用式(3)构建图卷积层:

hm+1=σ(EIhmwm),0≤m≤l1-1 (3)

式(3)中,l1表示卷积层的个数,hm表示第m层图卷积层的特征向量,wm表示第m层图卷积层的参数矩阵;σ表示激活函数;当m=0时,

步骤4.2利用式(4)构建l2层感知机,令每一个节点共享一个参数矩阵,从而得到如式(5)所示的多层感知机的输出O;

式(4)和式(5)中,表示第k层感知机的特征向量,表示第k层感知机的参数矩阵,表示第k+1层感知机的特征向量,表示第l2层感知机的特征向量,l2表示多层感知机的层数,sig()表示sigmoid函数,用于输出每个节点的二分类结果;

步骤4.3,利用式(6)构建损失函数L(θ):

式(6)中,O(vi)表示第i个节点vi的分类结果;θ表示图神经网络M3的参数,且yi表示第i个节点vi的隐私分类标注值;

步骤4.4,基于脱敏图像数据集D并利用梯度下降方法对损失函数L(θ)进行训练,直到模型收敛为止,从而得到训练好的图神经网络M3,并输出加权有向图GI={VI,EI}中每个节点的二分类结果;

步骤5,使用训练好的图神经网络M3确定输入图像I的打码像素区域;

步骤5.1,若第i个节点vi的分类结果O(vi)大于所设定的阈值,则表示第i个节点vi为隐私节点,否则,表示第i个节点vi为非隐私节点;

步骤5.2,假设第i个节点vi为隐私节点,若i∈[1,n],则利用第i个节点vi对应的边框信息确定出打码区域;若i=n+1,则表示第i个节点vi为背景节点,则将打码区域标注为整张输入图像I中除去{B1,B2,…,Bn}所包含物体的边框后剩下的像素区域;

步骤6,生成隐私规则:

步骤6.1,利用式(7)构建加权有向图GI={VI,EI}中第i个节点vi的符号向量svi

式(7)中,sv[j]表示第i个节点vi的第j个值的符号,vi[j]表示第i个节点vi的第j个值;

步骤6.2,利用式(8)求解分类结果对于第i个节点vi节点的梯度向量gvi

式(8)中,gv[j]表示第i个节点vi的第j个值的梯度;

步骤6.3,利用式(9)求解第i个节点vi对于分类结果的重要性Im(vi):

步骤6.4,若Im(vi)大于所设定的隐私阈值τ,则表示第i个节点vi为隐私相关的节点;

步骤6.5,利用式(10)构建加权有向图GI={VI,EI}中边的符号矩阵se:

式(10)中,se[i,j]表示第i个节点vi和第j个节点vj的边的符号;

步骤6.6,利用式(11)求解分类结果对于每一条边的梯度矩阵ge:

式(11)中,ge[i,j]表示第i个节点vi和第j个节点vj的边的梯度;

步骤6.7,利用式(12)求解隐私节点之间的隐私相关的边的邻接矩阵Ime(EI):

Ime(EI)=se·ge (12)

步骤6.8,令隐私子图SGI={{vi|Im(vi)≥τ,1≤i≤n},Ime(EI)}为输入图像I的隐私规则;

步骤7,由打码像素区域和隐私规则共同作为输入图像I的隐私检测结果。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110723826.0/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top