[发明专利]一种端到端人脸检测和识别方法有效
申请号: | 201910663227.7 | 申请日: | 2019-07-22 |
公开(公告)号: | CN110399826B | 公开(公告)日: | 2021-06-15 |
发明(设计)人: | 郭振华;万小培;苏英程 | 申请(专利权)人: | 清华大学深圳研究生院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 江耀纯 |
地址: | 518055 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 端到端人脸 检测 识别 方法 | ||
1.一种端到端人脸检测和识别方法,其特征在于,包括如下步骤:
S1:对训练样本集的原始图片预处理生成训练数据;
S2:搭建人脸检测网络;
S3:训练所述人脸检测网络;
S4:在所述人脸检测网络中添加人脸识别分支;所述人脸识别分支的网络结构从GoogleNet Inception V2网络中截取,所述人脸识别分支最后产生一个固定维度的人脸识别特征;包括:
S41:获得人脸面积最大且像素值大于设定阈值的人脸作为候选框,若没有检测到人脸或者最大人脸面积小于所述设定阈值,则使用默认区域作为所述候选框,所述默认区域为所述训练数据中统计得到的人脸出现概率最大的区域;
S42:使用ROIPooling在PVANet的conv2_3特征图谱上截取一个固定大小的特征块作为人脸识别分支的输入;S5:训练所述人脸识别分支。
2.如权利要求1所述的端到端人脸检测和识别方法,其特征在于,步骤S1包括:生成训练图片和生成训练标签;
所述生成训练图片包括:
S11:所述训练样本集的原始图片通过插值进行随机尺度缩放,得到缩放图片;
S12:对所述缩放图片随机裁剪得到固定大小的图片;
S13:对所述固定大小的图片随机水平翻转得到训练图片;
所述生成训练标签包括:
训练样本集的原始标签中的候选框上、下、左、右四个方向分别向内缩减;并忽略像素小于设置像素的人脸和人脸相互重叠部分。
3.如权利要求1所述的端到端人脸检测和识别方法,其特征在于,所述人脸检测网络的骨干网络为PVANet,并在所述PVANet的FPN结构最后一层,即conv_2s_3x3之后添加了两个分支,分别生成:人脸前景、背景热图,即分类任务;每个标记的人脸位置对应的人脸框相对位置,即回归任务;所述两个分支分别是分类任务和回归任务;
对所述PVANet的所述conv_2s_3x3的特征用双端长短期记忆网络进行上下文信息增强,采用顺序长短期记忆网络和反序长短期记忆网络相叠加实现。
4.如权利要求3所述的端到端人脸检测和识别方法,其特征在于,对所述分类任务和所述回归任务均采用渐进式的OHEM算法。
5.如权利要求4所述的端到端人脸检测和识别方法,其特征在于,所述渐进式的OHEM算法为在训练过程开始时难样本占比为0.2,并随着所述训练的进行逐步增大至0.8,即:
其中,ratio表示难样本占比,iter表示当前迭代次数,iters表示总的迭代次数。
6.如权利要求4所述的端到端人脸检测和识别方法,其特征在于,在所述回归任务中,计算损失时人脸面积小的区域乘以大的损失权重,人脸面积大的区域乘以小的损失权重,所述权重只与人脸面积相关,即:
L=Lcls+αS-γLIoU
其中,L表示损失函数总的值,Lcls表示人脸前景/背景分类的损失函数值,LIoU表示所述人脸框相对位置回归时的损失函数值,α表示LIoU的权重,γ表示调节因子,S表示人脸的面积。
7.如权利要求1所述的端到端人脸检测和识别方法,其特征在于,步骤S5包括:
将所述人脸检测网络的参数全部固定后单独对所述人脸识别分支进行训练。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一所述方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳研究生院,未经清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910663227.7/1.html,转载请声明来源钻瓜专利网。