[发明专利]基于动作增强的人脸防欺骗识别方法有效
申请号: | 201711232354.9 | 申请日: | 2017-11-30 |
公开(公告)号: | CN108009493B | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 马争;解梅;张恒胜;涂晓光 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 周刘英 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动作 增强 人脸防 欺骗 识别 方法 | ||
1.基于动作增强的人脸防欺骗识别方法,其特征在于,包括下列步骤:
构建基于卷积神经网络CNN和长短期记忆网络LSTM的人脸防欺骗识别网络模型:包括卷积层、池化层、LSTM层、注意力机制层和分类层,其中n路顺次连接的13层卷积层、1层池化层和3层LSTM层接入同一注意力机制层,所述注意力机制层用于将来自LSTM层的图像数据矩阵与位置置信度矩阵相乘,得到注意力机制处理后的图像数据矩阵并输入分类层,分类层用于判决视频人脸真假,其中n表示满足检测时长的视频的帧数,池化层的池化方式为最大值池化;
训练所述人脸防欺骗识别网络模型:
步骤S11:初始化网络参数;
步骤S12:初始化位置置信度矩阵;
输入一段帧数为n的训练视频序列,并对训练视频序列的视频图像进行图像预处理,包括归一化处理和采用动作增强技术的图像增强处理,得到n帧增强视频图像;
步骤S13:将n帧增强视频图像输入所述人脸防欺骗识别网络模型,进行前向传播计算,预测视频人脸真假,并与真实标签进行比较,计算分类层的损失函数
步骤S14:计算损失函数的梯度其中Wt表示第t次迭代的网络参数;
更新网络参数:Wt+1=Wt+Vt+1,其中γ表示预设的负梯度学习率,μ表示上一次梯度值的权重,Vt表示第t次迭代的梯度,且首次迭代的梯度为0,γ、μ的初始值为预设值;
更新位置置信度矩阵:表示第t次迭代的位置置信度矩阵的元素,i和j表示位置置信度矩阵的行和列,aij表示特征值,θ表示预设的学习率;
步骤S15:重复执行步骤S13~S14,对网络参数和位置置信度矩阵进行迭代更新,直到损失函数满足迭代收敛;当损失函数满足迭代收敛时,保存当前网络参数作为训练好的网络参数;
人脸真假识别过程:
步骤S21:输入一段帧数为n的待识别视频序列,并采用与训练视频序列相同的图像预处理方式,对待识别视频序列的视频图像进行图像预处理,得到n帧待识别的增强视频图像;
步骤S22:加载训练好的网络参数,将n帧待识别的增强视频图像输入所述人脸防欺骗识别网络模型,进行前向传播计算,获取待识别视频人脸真假。
2.如权利要求1所述的方法,其特征在于,位置置信度矩阵的初始值为其中M表示输入所述注意力机制层的图像数据矩阵的行与列的乘积。
3.如权利要求1所述的方法,其特征在于,分类层为softmax。
4.如权利要求1所述的方法,其特征在于,采用动作增强技术的图像增强处理的计算公式为表示增强处理后,t时刻位置为(x,y)的视频帧像素值,用f(x,y)表示图像增强处理前位置为(x,y)的像素值,δx(t)、δy(t)表示x,y方向的光强随着时间变化的位移函数,增强系数α=0.5。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711232354.9/1.html,转载请声明来源钻瓜专利网。