[发明专利]一种基于人脸高维特征的性别预测方法有效
申请号: | 202010378403.5 | 申请日: | 2020-05-07 |
公开(公告)号: | CN111753641B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 李梦婷;李翔;印鉴;刘威;余建兴 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 人脸高维 特征 性别 预测 方法 | ||
1.一种基于人脸高维特征的性别预测方法,其特征在于,包括以下步骤:
S1:采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个可以使用的深度人脸模型,并把通过100层的参数权重固定,这样每张人脸照片在通过这100层的主干网络之后,都可以生成一个高维度的向量;所述步骤S1的具体过程是:
S11:使用MTCNN模型将人脸数据集进行人脸提取和裁剪,输入的是原始的人脸照片数据,输出的是每张人脸对应的5个关键坐标点,包括两只眼睛、两个嘴角和一个鼻子,再把这5个点对应的人脸按照112×112的比例进行裁剪,其中使用到的margin值为16;
S12:把裁剪后的人脸以及对应的身份标注输入到100层的卷积神经网络ResNet中,使用基于Arcface的损失函数进行模型的训练,直至学习率降为0.001为学习结束;
S2:基于S1生成的主干网络,使用10万张带有性别标注的人脸照片输入到主干网络中,把通过主干网络生成的高维向量作为特征,训练一个两层的浅层网络,生成一个预测男女的二分类模型;所述步骤S2的具体过程是:
S21:收集了10万张线上各个场景的人脸照片,并且人工对每张照片的性别进行标注,这样就有了10万张有标注信息的数据,将这些照片输入到S1生成的主干网络后,生成10万个512维的特征向量,每个特征向量都有对应的性别标注;
S22:把10万个特征向量按照8:2的比例随机分为两部分,其中8万个作为训练集,使用浅层的两层网络,损失函数采用基于交叉熵的softmax函数,训练一个二分类的性别模型,训练结束后,使用剩下的2万张照片作为性别模型的测试数据;
S3:将S1和S2生成的两个模型部署到服务器中,同时提供人脸识别服务和性别预测服务,实时返回人脸照片对应的身份以及性别属性;
所述步骤S3的具体过程是:
S31:对于S12生成的主干网络进行模型的量化优化,减少对应的计算量,由于当前主流的训练方式使用的是32位的浮点数,所以主要采用了是16位整型的量化方式,在对精度影响非常小的情况下,大幅度减少对应的计算量;
S32:将S31和S22生成的模型部署在线上,当一张照片过来时,首先通过S31的模型得到一个512维的特征向量,通过比对人脸底库中已有人脸向量的相似度,判断其身份,同时把这个向量输入到S22的模型中,返回这张照片对应的性别,同时把识别到的身份信息和性别信息返回到客户端展示。
2.根据权利要求1所述的基于人脸高维特征的性别预测方法,其特征在于,所述步骤S12中,Arcface的损失函数进行模型的batchsize为512,初始学习率设置为0.1,总共迭代18万次,在迭代到10万次时,学习率降为0.01,在迭代到16万次时,学习率降为0.001为学习结束。
3.根据权利要求2所述的基于人脸高维特征的性别预测方法,其特征在于,所述步骤S12中,训练结束后,把最后的全连接层去掉,只剩下主干网络,一张人脸照片经过主干网络的计算后,就得到一个512维的特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010378403.5/1.html,转载请声明来源钻瓜专利网。