[发明专利]一种基于人脸高维特征的性别预测方法有效
申请号: | 202010378403.5 | 申请日: | 2020-05-07 |
公开(公告)号: | CN111753641B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 李梦婷;李翔;印鉴;刘威;余建兴 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 人脸高维 特征 性别 预测 方法 | ||
本发明提供一种基于人脸高维特征的性别预测方法,该方法基于ResNet100层的CNN网络结构的人脸识别模型衍生出的性别预测方法,首先通过对百万数量级人脸识别数据的训练,得到人脸高维特征表述的方式,再通过十万张标注性别的人脸照片,利用一个浅层的网络,训练出可以通过人脸照片就可以判断出性别的模型;本发明完全复用了人脸识别过程中的高维特征的计算结果,只需要很小的计算量就可以得到性别的预测结果,同时还可以保持非常高的预测精度。
技术领域
本发明涉及图像处理算法领域,更具体地,涉及一种基于人脸高维特征的性别预测方法。
背景技术
人脸识别服务,比如刷脸门禁和刷脸支付等,在人们的日常生活中已经无处不在,可以给用户提供更好的体验。基于人脸的性别预测服务,通常作为人脸识别的子服务,也为人们提供了各种各样的帮助,比如服装零售店通过人脸客流得到的性别占比,可以更好地了解自己的客户,从而去规划自己店内的服饰应该怎么去规划和布局等。因此在具体应用时,除了对人脸进行识别之外,还会返回性别等一些人脸属性。
通常基于人脸进行性别属性的预测有两类方法,一类是通过传统的图像处理方式,提取几个关键点的特征,然后用浅层的方法对提取的特征进行分类,从而预测出具体的性别结果,这类方法的优势是速度较快,但是精度很低;另外一类就是使用深度学习方式,训练一个深层的神经网络模型,使用端到端的方式,将人脸映射到一个高维的空间中去,用高维的特征向量去表示,然后再划分到具体的性别分类中去,这类方法的优势是精度很高,但是由于每张照片都要通过一个多层的卷积神经网络,所以速度很慢。另外,当前商用的人脸识别模型为了保持较高的识别精度,绝大多数也都是使用深层的卷积神经网络进行识别的。同时,由于卷积神经网络绝大部分的计算都需要通过GPU显卡进行加速,相对来说GPU的成本非常高。因此,为了大幅度减少计算成本和降低延时,本发明完全复用了人脸识别过程中的高维特征的计算结果,只需要很小的计算量就可以得到性别的预测结果,也就是说当一张人脸照片传过来后,只需要过一次深层网络,就可以得到身份识别和性别预测两个结果,同时还可以保持非常高的预测精度。
发明内容
本发明提供一种精度较高的基于人脸高维特征的性别预测方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于人脸高维特征的性别预测方法,包括以下步骤:
S1:采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个可以使用的深度人脸模型,并把通过100层的参数权重固定,这样每张人脸照片在通过这100层的主干网络之后,都可以生成一个高维度的向量;
S2:基于S1生成的主干网络,使用10万张带有性别标注的人脸照片输入到主干网络中,把通过主干网络生成的高维向量作为特征,训练一个两层的浅层网络,生成一个预测男女的二分类模型;
S3:将S1和S2生成的两个模型部署到服务器中,同时提供人脸识别服务和性别预测服务,实时返回人脸照片对应的身份以及性别属性。
进一步地,所述步骤S1的具体过程是:
S11:使用MTCNN模型将人脸数据集进行人脸提取和裁剪,输入的是原始的人脸照片数据,输出的是每张人脸对应的5个关键坐标点,包括两只眼睛、两个嘴角和一个鼻子,再把这5个点对应的人脸按照112×112的比例进行裁剪,其中使用到的margin值为16;
S12:把裁剪后的人脸以及对应的身份标注输入到100层的卷积神经网络ResNet中,使用基于Arcface的损失函数进行模型的训练,其中batchsize为512,初始学习率设置为0.1,总共迭代18万次,在迭代到10万次时,学习率降为0.01,在迭代到16万次时,学习率降为0.001为学习结束。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010378403.5/2.html,转载请声明来源钻瓜专利网。