[发明专利]基于弹性上下文关系损失函数的人脸识别方法及系统有效
申请号: | 201910689500.3 | 申请日: | 2019-07-29 |
公开(公告)号: | CN110414431B | 公开(公告)日: | 2022-12-27 |
发明(设计)人: | 姚若光;范志鸿;古竞;庞恺 | 申请(专利权)人: | 广州像素数据技术股份有限公司 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/762;G06V10/764;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 黄启文 |
地址: | 510230 广东省广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 弹性 上下文 关系 损失 函数 识别 方法 系统 | ||
本发明涉及一种基于弹性上下文关系损失函数的人脸识别方法,其研究如何克服海量不平衡数据对人脸识别训练带来的影响,提出的方法可以有效地挖掘组合数据块,减少无用的冗余计算,加速整个训练过程,且设计的基于弹性上下文的目标函数无需为每个类引入额外的训练参数,减少了大规模训练中长尾类的影响,同时软间距可以提高人脸识别准确率。
技术领域
本发明涉及数字图像处理领域,更具体地,涉及一种基于弹性上下文关系损失函数的人脸识别方法及系统。
背景技术
目前的人脸识别方法主要针对公开的训练数据集进行研究改进,这些数据库一般类别数有限,少则几千类,多则十几万类,并且每个类的样本数较多。然而实际场景中获取的人脸数据通常具有两个特点,一是类别数较多,实际场景下采集的数据往往存在多达几百万甚至几千万人,再则收集到的数据只有少部分人包含丰富多样的图像,大部分人只有几张甚至一张图像。比如监控场景下可以获得人的大量视频,但是图像之间相似度很高,而且实际可用的清晰数据很少,从而导致可用的样本很少。这些问题使得数据整体呈现明显的长尾效应。这给传统的分类目标损失函数(比如softmax loss)带来了极大的挑战。一是这种不平衡的样本分布给分类器学习尾部数据带来了挑战,使得分类器的权重不容易收敛;二是分类器的参数和训练样本的类别数成正比,海量的类别数使得分类函数的参数量急剧增加,既不利于优化学习,同时也需要占用更多的GPU显存资源,对硬件设备提出了更高的要求。虽然可以通过数据并行或者模型并行方式缓解显存问题,但是这些解决方案又同时带来了新的问题,比如多卡之间同步问题等。另外一种可行的替代方案是使用tripletloss,将分类问题转化为更为简单的度量学习问题。这种方法本质是将多类的人脸识别问题转变为判别是同一个人的样本对和不是同一个人的样本对的二分类问题,进而引导整个网络参数学习。虽然这种方式缓解了显存占用和参数过多的压力,但是在面对海量数据时,这种损失函数也有着他们自身的局限性。一是构造样本对的计算量,时间复杂度将达到样本总量的三次方。二是每次参数的更新只是基于若干对样本数据,缺乏全局信息,影响了最终的人脸识别性能。
发明内容
本发明提供的方法研究如何克服海量不平衡数据对人脸识别训练带来的影响,提出的方法可以有效地挖掘组合数据块,减少无用的冗余计算,加速整个训练过程,且设计的基于弹性上下文的目标函数无需为每个类引入额外的训练参数,减少了大规模训练中长尾类的影响,同时软间距可以提高人脸识别准确率。
为实现以上发明目的,采用的技术方案是:
基于弹性上下文关系损失函数的人脸识别方法,包括以下步骤:
S1.对于训练集中的图像,利用人脸检测算法检测图像中是否包含有人脸,若否则舍弃该图像,若是则执行步骤S2;
S2.对训练集中的图像中的人脸进行关键点定位,并基于关键点定位得到的关键点坐标对训练集中的图像进行操作得到预定大小的人脸图像;
S3.从训练集中随机选取一批人脸图像训练人脸识别模型;
S4.使用人脸识别模型提取训练集中人脸图像的特征描述子;
S5.根据获取的特征描述子计算得到训练集中人脸图像每个类的样本均值,作为这个类的代表样本;
S6.通过K-mean聚类算法,将人脸图像的代表样本聚类到多个聚类中心;
S7.从每个聚类中心选择S个类,并从S个类中平均挑选M个人脸图像样本组成一个数据块X,用均值来表示每个类的中心C={c1,c2,…,cS};每个数据块样本均来自同一个聚类中心的类;
S8.构建卷积神经网络单元,将数据块X送入卷积神经网络中,输出每个人脸图像样本的特征向量;
S9.将步骤S8提取的特征向量送入FCL损失函数中,FCL损失函数表示如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州像素数据技术股份有限公司,未经广州像素数据技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910689500.3/2.html,转载请声明来源钻瓜专利网。