[发明专利]一种基于栈式卷积稀疏去噪自编码器的人脸识别方法有效
申请号: | 201910338306.0 | 申请日: | 2019-04-25 |
公开(公告)号: | CN110321777B | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 刘艳飞 | 申请(专利权)人: | 重庆理工大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06N3/0464;G06N3/08 |
代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 卢胜斌 |
地址: | 401135 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 稀疏 编码器 识别 方法 | ||
本发明属于人脸识别领域,特别涉及一种基于栈式卷积稀疏去噪自编码器的人脸识别方法;所述方法包括通过将多个卷积的稀疏去噪自编码器与多个池化层交替连接,从而构建出栈式卷积稀疏去噪自编码器模型;将所述栈式卷积稀疏去噪编码器模型的卷积形式去除,采用分块的方式训练栈式稀疏去噪自编码器模型;用训练好的参数构成卷积滤波器,以卷积形式实现栈式卷积稀疏去噪自编码器;利用栈式卷积稀疏去噪自编码器进行人脸特征提取,并采用分类器对人脸进行分类与识别;本发明通过可以非监督训练的深度卷积神经网络,提取出与有监督深度卷积神经网络有相似性能的人脸特征,有效简化了训练难度。
技术领域
本发明涉及一种人脸识别方法,特别涉及一种基于栈式卷积稀疏去噪自编码器的人脸识别方法。
背景技术
人脸识别作为一项人工智能技术,在国家安全、金融和人机交互等领域有着广阔的应用前景。随着大数据和高性能计算的出现,人脸识别技术得到了飞速的发展,约束环境(用户比较配合、采集条件比较理想)下的人脸识别已经达到了可以实用的程度。但在非约束环境下,由于人脸图像容易受到光照变化、表情变化、角度变化、年龄变化及遮挡等非可控因素的影响,很难实现精准的人脸识别。近年来,基于深度学习的人脸识别技术大大提高了非约束人脸识别的性能,逐渐成为人脸识别领域的研究热点。特别是,深度卷积神经网络(Deep Convolutional Neural Network,DCNN)由于其多层深度结构能够获取保留丰富空间信息的人脸特征,在人脸识别应用中取得了良好的表现。Facebook提出的DeepFace、香港中文大学的Yi Sun等提出的DeepID系列、以及Google提出的FaceNet等都是基于DCNN的人脸识别方法的典型代表。近期,还有一些文献提出了新的损失函数可以进一步提高基于DCNN的人脸识别的性能,如A-softmax(SphereFace)、Range Loss、ArcFace等。然而,像DCNN这样的有监督学习模型需要大量的有标签人脸数据进行训练,现实情况下获取这样的数据往往花费巨大,难以实现。
发明内容
有鉴于此,本发明的目的在于提供一种基于无监督的深度神经网络(称之为栈式卷积稀疏去噪自编码器)的人脸识别方法,该方法通过将卷积的稀疏去噪自编码器与池化(pooling)层相结合进行堆叠的方式构成非监督的深度神经网络,在不需要有监督训练的同时保留了类似DCNN的卷积层与池化层相结合的结构,能够提取出具有丰富空间信息的人脸特征。该方法首先构建非监督的栈式卷积稀疏去噪自编码器模型并通过非监督方式对其进行训练,然后通过该栈式卷积稀疏去噪自编码器对输入的人脸图片(对齐后的)进行人脸特征提取,得到具有判别性的特征向量,最后采用分类器(如支持向量机)进行人脸识别。
为达到上述目的,本发明提供如下技术方案:
基于栈式卷积稀疏去噪自编码器的人脸识别方法,该方法包括以下步骤:
步骤一:通过将多个卷积的稀疏去噪自编码器与多个池化层交替连接,从而构建出栈式卷积稀疏去噪自编码器模型;
步骤二:将所述栈式卷积稀疏去噪编码器模型的卷积形式去除,以分块的方式直接训练栈式稀疏去噪自编码器模型;
步骤三:用训练好的参数构成卷积滤波器,以卷积的形式实现栈式卷积稀疏去噪自编码器;利用栈式卷积稀疏去噪自编码器进行人脸特征提取,并采用分类器对人脸进行分类与识别。
进一步的,所述步骤一包括:
步骤1)将稀疏去噪自编码器训练出来的参数进行重组,生成卷积参数,即滤波器;
步骤2)采用重组的卷积参数构成的滤波器实现卷积操作,从而构成卷积的稀疏去噪自编码器;
步骤3)将所述卷积的稀疏去噪自编码器与池化层交替连接;从而构建出栈式卷积稀疏去噪自编码器模型。
优选的,重复步骤1)~步骤3)两次即可,即表示栈式卷积稀疏去噪自编码器模型中至少有两个卷积的稀疏去噪自编码器和两个池化层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆理工大学,未经重庆理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910338306.0/2.html,转载请声明来源钻瓜专利网。