[发明专利]活体检测模型训练方法、活体检测方法和系统在审
申请号: | 202211685600.7 | 申请日: | 2022-12-27 |
公开(公告)号: | CN116206371A | 公开(公告)日: | 2023-06-02 |
发明(设计)人: | 朱军 | 申请(专利权)人: | 支付宝(杭州)信息技术有限公司 |
主分类号: | G06V40/40 | 分类号: | G06V40/40;G06V40/16;G06V10/764;G06V10/80;G06T3/40 |
代理公司: | 北京留理知识产权代理事务所(普通合伙) 16049 | 代理人: | 段斌 |
地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 活体 检测 模型 训练 方法 系统 | ||
1.一种活体检测模型训练方法,包括:
获取面部样本在不同感受野下的面部图像样本,所述不同感受野包括第一感受野和第二感受野;
采用预设活体检测模型对所述面部图像样本进行特征提取,并基于提取出的图像特征对所述面部样本进行活体分类,得到目标感受野对应的分类结果,所述目标感受野包括所述第一感受野、所述第二感受野和融合感受野,所述融合感受野包括所述第一感受野的特征信息和所述第二感受野的特征信息融合后得到的特征信息对应的感受野,所述分类结果包括分类置信度;以及
基于所述分类置信度,确定所述目标感受野对应的损失权重,并基于所述损失权重对所述预设活体检测模型进行收敛,得到训练后的目标活体检测模型。
2.根据权利要求1所述的活体检测模型训练方法,其中,所述面部图像样本包括所述面部样本对应的面部区域,所述面部区域在所述不同感受野对应的所述面部图像样本中的区域占比不同。
3.根据权利要求1所述的活体检测模型训练方法,其中,所述图像特征包括第一感受野对应的第一图像特征和所述第二感受野对应的第二图像特征;以及
所述基于提取出的图像特征对所述面部样本进行活体分类,得到目标感受野对应的分类结果,包括:
基于所述第一图像特征,确定所述第一感受野对应的第一分类结果,并基于所述第二图像特征,确定所述第二感受野对应的第二分类结果,
将所述第一图像特征和所述第二图像特征进行拼接,得到所述融合感受野对应的融合图像特征,并基于所述融合图像特征,确定所述融合感受野对应的第三分类结果,以及
将所述第一分类结果、所述第二分类结果和所述第三分类结果作为所述目标感受野对应的分类结果。
4.根据权利要求3所述的活体检测模型训练方法,其中,所述基于所述第一图像特征,确定所述第一感受野对应的第一分类结果,包括:
在所述第一图像特征中提取出活体分类特征;以及
基于所述活体分类特征,对所述面部样本进行活体分类,得到第一分类结果。
5.根据权利要求1所述的活体检测模型训练方法,其中,所述基于所述分类置信度,确定所述目标感受野对应的损失权重,包括:
在所述分类置信度中提取出所述第一感受野对应的第一分类置信度和所述第二感受野对应的第二分类置信度;以及
基于所述第一分类置信度和所述第二分类置信度,确定所述目标感受野对应的损失权重。
6.根据权利要求5所述的活体检测模型训练方法,其中,所述基于所述第一分类置信度和所述第二分类置信度,确定所述目标感受野对应的损失权重,包括:
获取所述第一分类置信度和所述第二分类置信度之间的和,得到分类置信度和值,并基于所述分类置信度和值,确定所述不同感受野对应的当前损失权重;
获取所述第一分类置信度和所述第二分类置信度之间的差值,得到分类置信度差值,并基于所述分类置信度差值,确定所述融合感受野对应的融合损失权重;以及
将所述当前损失权重和所述融合损失权重作为所述目标感受野对应的损失权重。
7.根据权利要求6所述的活体检测模型训练方法,其中,所述基于所述分类置信度和值,确定所述不同感受野对应的当前损失权重,包括:
将所述第一分类置信度与所述分类置信度和值进行对比,以得到所述第一感受野对应的第一损失权重;
将所述第二分类置信度与所述分类置信度和值进行对比,以得到所述第二感受野对应的第二损失权重;以及
将所述第一损失权重和所述第二损失权重作为所述不同感受野对应的当前损失权重。
8.根据权利要求7所述的活体检测模型训练方法,其中,所述将所述第一分类置信度与所述分类置信度和值进行对比,以得到所述第一感受野对应的第一损失权重,包括:
获取所述第一分类置信度的平方值;
获取所述平方值与所述分类置信度和值的置信度比值;以及
将所述置信度比值作为所述第一感受野对应的第一损失权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于支付宝(杭州)信息技术有限公司,未经支付宝(杭州)信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211685600.7/1.html,转载请声明来源钻瓜专利网。