[发明专利]一种提高戴眼镜条件下人脸识别模型性能的方法有效
申请号: | 201810377373.9 | 申请日: | 2018-04-25 |
公开(公告)号: | CN108319943B | 公开(公告)日: | 2021-10-12 |
发明(设计)人: | 李继凯 | 申请(专利权)人: | 北京优创新港科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京兴智翔达知识产权代理有限公司 11768 | 代理人: | 吕洪 |
地址: | 100085 北京市海淀区上*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 提高 眼镜 条件 下人 识别 模型 性能 方法 | ||
一种提高戴眼镜条件下人脸识别模型性能的方法,包括以下步骤:针对已有的未佩戴眼镜的人脸训练数据,通过人脸图像自动加眼镜算法,扩充为戴眼镜人脸训练数据;利用扩充后的戴眼镜人脸训练数据进行训练,获得人脸识别模型。本发明通过对未佩戴眼镜的人脸图像增加眼镜,可以快速便捷的将已有未佩戴眼镜的训练数据拓展为戴眼镜训练数据,提高了训练数据的规模和多样性,该方法相对于新建佩戴眼镜的人脸训练数据,成本低廉、简便快捷、效果明显,可节省大量的人力和财力成本开支。同时,通过拓展后的训练样本对人脸识别模型进行训练,可以使人脸识别模型对戴眼镜人脸具有更好的抗干扰能力和识别效果,大幅提升了整体识别准确度。
技术领域
本发明属于计算机视觉领域,涉及一种人脸检测和识别方法,特别是涉及一种提高戴眼镜条件下人脸识别模型性能的方法。
背景技术
为提高人脸识别算法的识别效果,通常需要利用大量训练数据开展训练,才能获得性能优异的人脸识别模型。在模型结构相同的前提下,训练数据的规模和多样性将对模型的最终性能产生决定性影响。在实际应用中,人脸识别技术通常面临以下问题:一是现有的训练数据多为未佩戴眼镜的训练数据,通过该训练数据获得的人脸识别模型,对佩戴眼镜的人脸识别效果较差;同时,若新建大规模的戴眼镜人脸训练数据,不仅将消耗大量的人力财力,而且时间周期也较长;二是作为一种普遍存在的现象,用户在进行人脸识别注册时未佩戴眼镜,而检测时却佩戴了眼镜,这种情况下,注册时建立的人脸识别模型通常无法将未佩戴眼镜和佩戴眼镜的同一人脸进行关联,因此人脸识别效果也会变得很差。
发明内容
本发明的目的在于克服现有技术的缺陷,提供一种成本低廉、步骤简洁,可显著提高戴眼镜条件下人脸识别模型性能的方法。
为实现上述目的,本发明采用了如下技术方案:
一种提高戴眼镜条件下人脸识别模型性能的方法,包括以下步骤:(1)针对已有的未佩戴眼镜的人脸训练数据,通过人脸图像自动加眼镜算法,扩充为戴眼镜人脸训练数据;(2)利用扩充后的戴眼镜人脸训练数据进行训练,获得人脸识别模型。
进一步,步骤(1)中所述人脸图像自动加眼镜算法包括以下步骤:(1.1)利用基于级联卷积网络的人脸检测算法,定位人脸训练数据中人脸图像的人脸位置和五官关键点位置;(1.2)利用五官位置估计人脸姿态角;(1.3)利用人脸姿态角对眼镜素材图像进行角度变换;(1.4)将变换后的眼镜素材图像和人脸图像进行像素级局域加权求和,获得戴眼镜的人脸图像。
进一步,所述步骤(1.4)中将变换后的眼镜素材图像和人脸图像进行像素级局域加权求和时,将眼镜素材图像位置在竖直方向上进行扰动,获得多个具有不同眼镜位置的戴眼镜人脸图像。
进一步,所述步骤(1.4)中通过采用多个不同的权值进行加权求和,获得多个具有不同眼镜镜片反光效果的戴眼镜人脸图像。
进一步,所述步骤(2)包括以下步骤:(2.1)对扩充后的戴眼镜人脸训练数据进行归类标定;(2.2)建立基于残差深度卷积网络的人脸识别模型,用于提取图像更深层的特征;(2.3)建立基于增强分类间隔的softmax函数的分类损失函数,用于评价网络的分类误差;(2.4)利用误差反向传播和随机梯度下降的优化方法,对分类损失函数进行优化;(2.5)通过多次迭代计算,分类损失函数下降并收敛,获得人脸识别模型。
进一步,步骤(2.1)中所述所述归类标定的方法为:同一人的人脸图像标号一致,并与其他人脸图像标号不同。
进一步,步骤(2.3)中所述所分类代价函数为:
其中,n为训练样本总数,s为特征的L2范数,m为偏移项,yi为样本的类别,为特征向量x与网络权重向量W之间的夹角,权重向量W的L2范数被归一化为1,为归一化后的特征向量,其长度为n。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京优创新港科技股份有限公司,未经北京优创新港科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810377373.9/2.html,转载请声明来源钻瓜专利网。