[发明专利]基于生成式对抗网络脸部隐私保护方法有效
申请号: | 202010955318.0 | 申请日: | 2020-09-11 |
公开(公告)号: | CN112084962B | 公开(公告)日: | 2021-05-25 |
发明(设计)人: | 杨观赐;林家丞;李杨;何玲;蒋亚汶;袁庆霓 | 申请(专利权)人: | 贵州大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06F21/62;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 贵阳东圣专利商标事务有限公司 52002 | 代理人: | 袁庆云 |
地址: | 550025 贵州省*** | 国省代码: | 贵州;52 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 生成 对抗 网络 脸部 隐私 保护 方法 | ||
1.基于生成式对抗网络脸部隐私保护方法,包括:
步骤一,工作站和机器人平台中都分别加载基于生成对抗网络的人脸去识别方法,并且使用基于生成对抗网络的人脸去识别方法以及隐私和非隐私数据集在工作站上训练特征模型W;
步骤二,工作站与机器人平台通过无线局域网WLAN连接,机器人平台通过工作站上的基于生成对抗网络的人脸去识别方法来定期更新权重;
步骤三,机器人平台上的基于生成对抗网络的人脸去识别方法获得特征模型W,当机器人平台上的照相机捕获脸部图像时,对需隐私保护的脸部图像,机器人平台应用基于生成对抗网络的人脸识别方法进行脸部去识别,保护脸部图像的隐私特征,确保用户的视觉隐私不受侵犯;
其中所述基于生成对抗网络的人脸识别方法,包含1个改进U-Net网络的生成器G和2个判别器D1、D2,其中判别器与生成器由卷积层、残差块和自注意力层组成;
所述改进U-Net网络的生成器G,包括8层下采样卷积层e1-e8、8层上采样卷积层d1–d8和中间层,其中下采样卷积层e8是向下采样残差块,上采样卷积层d1是上采样残差块,中间层与上采样卷积层d6为自注意力层;
所述生成器G和2个判别器D1、D2采用基于铰链损失的对抗损失函数,在训练过程中,基于生成对抗网络的人脸识别方法中的2个判别器D1、D2扮演相同的角色,并具有协作竞争关系与共享参数的能力,因此,生成器G对抗损失函数和判别器D1、D2的对抗损失函数分别为:
其中,x~pd(x)表示x服从先验分布Pd(x),y~pd(y)表示y服从目标分布Pd(y),表示期望值求取函数,min(*)是最小值函数,α=0.8和β=0.8参数控制对优化策略的影响,D1(*),D2(*)分别表示判别器D1与判别器D2判别网络,G(*)表示生成器网络,x,y~pd(x),pG(y)表示x与y分别服从pd(x),pG(y)分布;
所述生成器G中引入了像素丢失功能来指导隐私去识别的过程,像素损失包括重建损失和像素损失,
其重建损失的计算公式为:
式中为控制重建损失的系数,(x,y)~pd(x,y)表示样本(x,y)服从真实样本分布pd(x,y);
所述像素损失的计算公式为:
式中ξ为控制像素损失的系数;
由所述重建损失和像素损失结合在一起的总像素损失的值的计算公式为:
式中总像素损失的参数和ξ满足条件和并且λ是惩罚系数;
所述生成器G中内容损失包括身份内容损失和轮廓内容损失,
其所述身份内容损失采用结构相似性指标SSIM来量化原始图像和生成图像之间的相似性,所述结构相似性指标SSIM损失函数的计算公式为:
式中,μG(x)是G(x)的均值,μy是y的均值;σG(x)与σy分别是G(x)与y的方差;σG(x)y是G(x)与y的协方差;c1=(K1L)2,c2=(K2L)2是用来稳定损失函数的常数,L是像素的范围,K1=0.001,K2=0.003;
其所述轮廓内容损失用来测量生成的分布和原始分布,计算公式为:
式中,p(*)为概率分布,函数f(x)的计算公式为:
其中,x+和x-是活跃边界与非活跃边界在x上的分布;
其总的内容损失函数的计算公式为:
所述生成器G中的基于生成对抗网络的人脸识别方法的总损失函数为
式中,与为正则化损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贵州大学,未经贵州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010955318.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种运载火箭部段精密对接协调方法
- 下一篇:定量输出物料装置