[发明专利]基于交并比的多模型融合的人脸检测方法、装置与计算机可读取存储介质有效
申请号: | 201911256260.4 | 申请日: | 2019-12-10 |
公开(公告)号: | CN110688994B | 公开(公告)日: | 2020-03-27 |
发明(设计)人: | 杨帆;陈凯琪;钱青;胡建国;王瀚洋 | 申请(专利权)人: | 南京甄视智能科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 南京行高知识产权代理有限公司 32404 | 代理人: | 王培松;王菊花 |
地址: | 211000 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 交并 模型 融合 检测 方法 装置 计算机 读取 存储 介质 | ||
本发明提供一种基于交并比的多模型融合的人脸检测方法、装置与计算机可读取存储介质,其中包括人脸检测器训练部、交并比计算部、融合置信度获取部以及检测器判断部,通过本发明的基于交并比IOU的多模型的人脸检测(定位)方法,在进行人脸检测器的模型融合时,基于交并比以重新确定置信度,以保留正确的检测框,舍弃误检。尤其是通过交并比以及归一化权重处理,衡量每个检测器在整个过程的权重,从而降低每个检测器其误检的置信度,且尽可能保证真正人脸置信度。
技术领域
本发明涉及人脸检测技术领域,具体而言涉及一种基于交并比的多模型融合的人脸检测方法、装置与计算机可读取存储介质。
背景技术
人脸检测技术是指基于图像处理技术,对于输入的视频帧图像,可以检测到人脸并输出人脸的位置,最终的输出为人脸框在图像中的坐标以及人脸框的置信度。
在人脸检测领域,存在各种各样的人脸检测的算法,在简单的场景下,基本都能检测到人脸,但是在面临复杂的场景时,单个的检测器往往会存在一些漏检或者误检,而每个检测器的漏检和误检都不一样。如果只是把每个检测器的结果都保留下来,则反而会增加误检和漏检的个数。如何可以在融合检测器的时候尽量保留正确的结果,而舍弃误检,是现在存在的问题。
例如现有技术中的CN108171223提出的基于多模型多通道的人脸识别方法及系统,尽管是一种融合多模型的人脸识别,但我们看到,无论是活体检测还是人脸识别,其与人脸检测的任务和解决问题的差异很大。在活体检测中,主要目的是判断输入的图片是否是活体,避免产生错误的活体识别(活体攻击)。而在人脸识别中,主要任务和目标是得到人脸的特征向量在计算相似度,是基于已经得到图片中的人脸的坐标的基础上进行计算。而人脸检测,是要从输入的图片中去定位图片中人脸的位置。所以人脸检测的输出是每一个检测框的坐标以及这个检测框是人脸的概率,相当于是一个多任务的模型。
假设在一个图片中,存在多个人脸,那么每个模型都会输出多个人脸框,首先就需要判断,不同模型的人脸框是定位在同一个人脸上,才能再去考虑把检测的信息进行融合,例如在图1所示的识别场景中,有三个人脸A、B和C,假设有两个检测器,对每个人脸进行检测和输出,在不考虑误检的情况下,我们在进行模型融合的时候我们只能让同样检测器的两个框进行融合,即只可对同种检测器的检测框进行融合,而不能直接把模型的输出简单的叠加或者加权求和等方式,上述现有技术的基于多模型多通道的人脸识别方法及系统不能解决这一问题。
发明内容
本发明目的在于提供一种基于交并比的多模型融合的人脸检测方法,采用多模型融合的人脸检测方法,把多个人脸检测器的结果进行融合,降低误检的同时,提升检测率。
为实现上述目的,本方法提出一种基于交并比的多模型融合的人脸检测方法,包括:
步骤1、在同一个人脸检测训练集中训练多个用于人脸检测的检测器,并在同一个验证集中验证每个检测器的性能,得到P个处于同一性能水平的检测器,P为大于等于3的正整数;
步骤2、输入一张待检测的图片到训练好的P个检测器中,每个检测器输出从图片中预测的人脸框的坐标和置信度;
步骤3、计算每个检测器的输出的人脸框与其他检测器的人脸框的交并比,响应于交并比大于设定的第一阈值M,则判定两侧检测器检测到的是同一个人脸框,即公共人脸框;否则判定不是公共人脸框;
步骤4、统计所有检测器检测到的公共人脸框的个数为m;
步骤5、计算公共人脸框占各自检测器的人脸框的比值,得到P个占比;
步骤6、对P个占比进行归一化处理并计算归一化后的权重,得到各个检测器最终的权重占比;
步骤7、通过非极大值抑制对P个检测器中所有输出的人脸框进行去重,得到去重后的人脸框;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京甄视智能科技有限公司,未经南京甄视智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911256260.4/2.html,转载请声明来源钻瓜专利网。