[发明专利]一种人脸遮挡检测算法在审
申请号: | 202010899963.5 | 申请日: | 2020-08-31 |
公开(公告)号: | CN112052772A | 公开(公告)日: | 2020-12-08 |
发明(设计)人: | 陈大添;黄招东;孙高海;陈炜 | 申请(专利权)人: | 福建捷宇电脑科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 福州科扬专利事务所 35001 | 代理人: | 郭梦羽 |
地址: | 350000 福建省福州市高*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 遮挡 检测 算法 | ||
本发明涉及一种人脸遮挡检测算法,包括以下步骤:人脸图像预处理,将收集的复数张人脸图像根据人脸位置信息和人脸关键点坐标进行图像切割,得到复数张人脸五官图像作为基础数据集;数据增广,对所述基础数据集进行数据增广;数据标注与划分,对不同类别增广后的图像分类标注,将标注后的数据作为训练样本,包括训练集、验证集和测试集;搭建卷积神经网络模型;设置超参数,训练卷积神经网络模型,确定超参数,配置训练集模拟训练,使用验证集测试模型,观察模型准确率是否明显浮动,若准确率浮动明显,则返回设置超参数,否则作为人脸遮挡检测模型输出;测试模型,验证准确率,使用测试集确定模型准确率,评估最优超参数训练模型的泛化能力。
技术领域
本发明涉及一种人脸遮挡检测算法,属于人脸识别领域。
背景技术
目前,人脸遮挡检测大部分是通过特征提取算法提取图像特征,再使用分类器对特征进行分类。传统的方法是利用SIFT(Scale-invariant Feature Transform,尺度不变特征变换)和HOG(Histogram of Oriented Gradient,方向梯度直方图)等特征提取算法,提取特征再经过不同的特征处理,然后使用支持向量机等分类器进行训练得到分类器模型。
近年来,深层神经网络的兴起,提供了另外一种解决方案。其中卷积神经网络就适用于图像识别与分类。通过构建卷积神经网络,训练大量完整人脸数据,学习权重参数,提取图像特征,直接输出分类结果。
传统的人脸遮挡检测采用整张人脸图像作为输入数据,需要卷积神经网络的训练需要大量的数据学习五官位置和五官遮挡信息达到准确率,准确率低、训练数据多,因此,本发明提供一种人脸遮挡检测算法用于解决上述问题。
发明内容
为了解决上述技术问题,本发明提供一种人脸遮挡检测算法,其具有准确率高、模型拟合训练数据少的特点。
本发明技术方案如下:一种人脸遮挡检测算法,包括以下步骤:人脸图像预处理,收集复数张人脸图像,遍历所有人脸图像,并根据人脸位置信息和人脸关键点坐标对每张人脸图像进行图像切割处理,得到复数张人脸五官的图像作为基础数据集;数据增广,对所述基础数据集中的人脸图像进行数据增广,得到增广后的图像,数据增广的方式包括亮度调整、旋转图像角度和镜像处理;数据标注与划分,对所述增广后的图像进行分类,包括遮挡、眼睛、嘴巴和鼻子,对不同类别的所述增广后的图像进行标注,将标注后的数据作为训练样本,包括训练集、验证集和测试集;搭建卷积神经网络模型,卷积神经网络包括输入层、隐藏层和输出层,通过训练样本对卷积神经网络进行训练,输出卷积神经网络模型;设置超参数,训练卷积神经网络模型,所述超参数的设置包括初始学习率、单批次训练数据大小和训练数据迭代次数,确定超参数,配置训练集数据模拟训练,使用验证集测试模型准确率,观察模型准确率是否有明显浮动和验证模型泛化能力,若准确率浮动明显,则返回设置超参数、调整学习率、单次训练批次大小和训练数据迭代次数,否则输出结果作为人脸遮挡检测模型;测试模型,验证准确率,使用测试集确定模型准确率,评估最优超参数训练模型的泛化能力;获取待识别的人脸五官信息,利用训练好的人脸遮挡检测模型进行人脸遮挡检测。
具体的,所述卷积神经网络是通过网络堆叠的方式提取图像特征,包括浅层网络和深层网络,所述浅层网络提取边缘、纹理和颜色特征,深层网络提取具体的轮廓和结构特征。
具体的,所述卷积神经网络权重共享,卷积神经网络在进行卷积核与特征图计算时,通过滑窗方式与特征图的不同部位进行计算,计算过程共用权值。
具体的,所述卷积神经网络的图像数据可分割为不同区域子图,不同区域子图存在相同的特征,可以使用同一组权重参数检测。
具体的,通过Dlib人脸检测算法获取人脸五官信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建捷宇电脑科技有限公司,未经福建捷宇电脑科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010899963.5/2.html,转载请声明来源钻瓜专利网。