[发明专利]一种多任务的深度特征空间姿态人脸识别方法有效
申请号: | 201910468170.5 | 申请日: | 2019-05-31 |
公开(公告)号: | CN110276274B | 公开(公告)日: | 2023-08-04 |
发明(设计)人: | 王辰星;程超;达飞鹏 | 申请(专利权)人: | 东南大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/774;G06V10/82;G06N3/0464 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 向文 |
地址: | 211100 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 任务 深度 特征 空间 姿态 识别 方法 | ||
本发明公开了一种多任务的深度特征空间姿态人脸识别方法,首先对姿态人脸图片进行角度测定,利用残差网络来实现图片深度空间特征的提取;然后,添加残余等变换映射模块,用来实现侧脸深度特征到正脸深度特征的变换,构成了网络的主任务;接着,在原来残余等变换映射模块的基础上再添加一个模块,用来实现原始侧脸深度特征的重构,以实现反馈,这是网络的副任务;最后,采用余弦相似度来衡量待比较人脸与数据库中所有人的深度特征表示之间的相似度,以此进行人脸认证识别。本发明能够根据侧脸深度空间特征得到正脸深度空间特征的鲁棒表示,使得对于侧脸的识别率得到了大幅提高,在姿态人脸检测与识别中具有非常好的应用前景。
技术领域
本发明属于计算机视觉和人工智能技术领域,涉及一种人脸识别方法,具体涉及一种多任务的深度特征空间姿态人脸识别方法。
背景技术
人脸识别技术是当代人工智能、模式识别、计算机视觉领域中的热门研究课题之一。人脸识别技术应用的领域非常广泛,如公共安全、电子商务及信息安全等。在实际应用中对人脸识别检测得出,角度姿态的因素是影响人脸识别结果的主要因素。当输入的人脸图像是一张偏转角度较大的侧脸图像时,很多常规人脸识别算法性能都大幅度的下降,导致识别率会明显大幅下降。因此,如何针对人脸的姿态因素发展出一种高鲁棒性、高准确度的识别技术具有重要的价值和意义。
目前针对大角度人脸姿态,主流研究方法主要集中在三维人脸模板和二维平面技术。而不管是三维模板还是二维平面技术,都是从图像层面实现侧脸到正脸的姿态矫正。但是在图片层面的通过姿态矫正来提高姿态人脸的识别率是比较困难的,因为这样矫正出来的正面人脸容易受表情、光照、姿态造成的遮挡等因素的影响,进而影响人脸的识别率。近年来通过卷积神经网络来提取人脸的鲁棒特征进行人脸识别是一个比较热门的研究领域,但是这些特征提取方法主要集中在两个方面,一是首先对人脸图像进行姿态归一化,然后再提取深度空间特征;另一方面是直接设计网络结构提取姿态鲁棒的深度空间特征。因此,在特征空间实现姿态的矫正来提高姿态人脸的识别率也是一个值得探究的方向。
发明内容
发明目的:为了克服现有技术中存在的大姿态人脸识别率低的问题,提供一种基于多任务的深度特征空间姿态人脸矫正识别方法,其通过残差网络来提取侧脸的特征,进一步根据人脸的姿态角度对得到的侧脸特征进行补偿,以此实现深度空间的侧脸到正脸的转换,同时在此主任务基础上,对网络添加副任务组成多任务,即通过得到的正脸特征对原始的侧脸输入特征进行重构,以此来衡量得到的正脸特征。通过实现网络中的多任务深度特征空间姿态人脸矫正,有效地提高了识别率。
技术方案:为实现上述目的,本发明提供一种基于多任务的深度特征空间姿态人脸矫正识别方法,包括如下步骤:
1)对训练集中的每个人不同姿态的侧面人脸图像完成姿态角度的测定;
2)通过基本卷积神经网络来提取人脸图像的深度空间特征;
3)设计网络的主任务模块,用于完成对姿态侧脸的深度空间矫正,对于提取到的侧脸深度空间特征,对其进行特征补偿以此来实现深度特征空间的姿态矫正;
4)设计网络的副任务模块,用于完成对原始侧脸姿态深度特征的重构,在得到矫正的正脸深度特征基础上,对其进行变换来重构原始输入的侧脸深度特征,以此来实现对矫正得到的正脸特征的评估;
5)训练整个网络;
6)对待识别的姿态人脸图片进行角度测定;
7)将待识别的姿态人脸图片传入到根据步骤2到步骤5已经训练好的网络中,得到鲁棒的正脸深度空间特征;
8)根据得到的待识别人脸图片的特征表示以及数据库中所有人脸的特征表示,采用余弦相似度来衡量特征之间的近似程度,以此来确定待识别人脸图像的身份信息。
所述步骤1中侧面人脸姿态角度的测定,不需要进行精确的角度测定,只要每个人脸图像的角度测定在误差范围内即可。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910468170.5/2.html,转载请声明来源钻瓜专利网。