[发明专利]深度图人脸检测模型训练方法、系统、设备及存储介质在审
申请号: | 201911364539.4 | 申请日: | 2019-12-26 |
公开(公告)号: | CN113051961A | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 段兴;陈荡荡;朱力 | 申请(专利权)人: | 深圳市光鉴科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518054 广东省深圳市南山区粤海街道高*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 图人脸 检测 模型 训练 方法 系统 设备 存储 介质 | ||
本发明提供了一种深度图人脸检测模型训练方法、系统、设备及存储介质,包括:根据人脸深度图生成多个训练图像集,每一训练图像集均包括负样本图像集和正样本图像集;将一训练图像集输入第一级神经网络模型进行训练;将一训练图像集输入训练后的第一级神经网络模型进行检测,当第一级神经网络模型对一训练图像集中的一人脸深度图输出的检测人脸框与标注人脸框的交并比小于预设值的第一阈值时,根据检测人脸框截取人脸深度图生成第一截取图像;获取第一截取图像,将第一截取图像并入另一训练图像集的负样本图像集,根据另一训练图像集进行第二级神经网络模型的训练。本发明能够实现对深度图的人脸准确检测,以准确得到深度图中的人脸位置。
技术领域
本发明涉及深度图人脸检测,具体地,涉及一种深度图人脸检测模型训练方法、系统、设备及存储介质。
背景技术
人脸检测方法大致可以分为两类:基于2D人脸图像的人脸检测和基于3D人脸图像的人脸检测。其中2D人脸检测是通过2D摄像头平面成像,无法接收物理世界中的第三位信息(尺寸和距离等几何数据),即使算法及软件再先进,在有限的信息接收状态下,安全级别终究不够高,通过照片、视频、化妆、人皮面具等方式可以很容易进行破解,无法满足智能手机安全级别的需求。
3D人脸检测则是通过3D摄像头立体成像,能够检测视野内空间每个点位的三维坐标信息,从而使得计算机得到空间的3D数据并能够复原完整的三维世界,并实现各种智能的三维定位。简单的说就是机器获取的信息多了,分析判断的准确性有了极大的提升,人脸检测功能可以分辨出平面图像/视频/化妆/皮面具/双胞胎等状态,适合金融领域和智能手机等安全级别要求高的应用场景。
传统的3D人脸检测设备一般都是通过同时装备RGB摄像头和深度摄像头,通过RGB摄像头拍摄的RGB图像进行人脸检测,然后再将RGB图像上检测到的人脸对应到深度图上,该方法硬件成本高,需要配两个摄像头,同时需要在RGB摄像头和深度摄像头之间进行切换,因此运算速度较慢。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种深度图人脸检测模型训练方法、系统、设备及存储介质。
根据本发明提供的深度图人脸检测模型训练方法,包括如下步骤:
步骤S1:获取多张人脸深度图,根据所述人脸深度图生成多个训练图像集,每一所述训练图像集均包括负样本图像集和具有人脸标注框的正样本图像集;
步骤S2:将一所述训练图像集输入第一级神经网络模型进行训练;
步骤S3:将一所述训练图像集输入训练后的第一级神经网络模型进行检测,当所述第一级神经网络模型对一所述训练图像集中的一人脸深度图输出的检测人脸框的置信度大于预设值的置信度阈值且与标注人脸框的交并比小于预设值的第一阈值时,根据所述检测人脸框截取所述人脸深度图生成第一截取图像;
步骤S4:获取所述第一截取图像,并将所述第一截取图像并入另一所述训练图像集的负样本图像集,进而根据另一所述训练图像集进行第二级神经网络模型的训练。
优选地,还包括如下步骤:
步骤S5:将另一所述训练图像集输入训练后的第二级神经网络模型进行检测,当所述第二级神经网络模型对另一所述训练图像集中的一人脸深度图输出的检测人脸框的置信度大于预设置的置信度阈值且与标注人脸框的交并比小于预设值的所述第二阈值时,则将根据所述检测人脸框截取所述人脸深度图生成第二截取图像;
步骤S6:获取所述第二截取图像,并将所述第二截取图像并入再一所述训练图像集的负样本图像集,进而根据再一所述训练图像集进行第三级神经网络模型的训练。
优选地,所述步骤S1包括如下步骤:
步骤S101:通过在标注人脸框的周边对人脸深度图进行随机裁剪生成第一裁剪图像,且当所述第一裁剪图像中与任一标注人脸框的交并比大于第三阈值时,将所述第一裁剪图像加入正样本图像集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市光鉴科技有限公司,未经深圳市光鉴科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911364539.4/2.html,转载请声明来源钻瓜专利网。