[发明专利]多场景适应性模型融合方法及人脸识别系统在审
申请号: | 202110777419.8 | 申请日: | 2021-07-09 |
公开(公告)号: | CN113361488A | 公开(公告)日: | 2021-09-07 |
发明(设计)人: | 杨帆;张凯翔;朱莹;胡建国 | 申请(专利权)人: | 南京甄视智能科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京德崇智捷知识产权代理有限公司 11467 | 代理人: | 季承 |
地址: | 210000 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 适应性 模型 融合 方法 识别 系统 | ||
1.一种多场景适应性模型融合方法,其特征在于,步骤包括:
第一步,穷举出模型库中分别对应不同场景的人脸识别模型的组合;
第二步,筛选出第一步各组合中运算速度满足目标平台要求的组合,将其记录为模型组合;
第三步,对第二步所获得的每一个模型组合分别计算其在各场景中的精度和阈值C{a1,t1}, C{a2,t2},... ,C{an,tn},然后分别对各精度和各阈值进行归一化处理,获得每一个模型组合在各场景中的归一化精度An和归一化阈值Tn;其中,n表示场景标号,an表示第n号场景中模型的精度,tn表示第n号场景中模型的阈值;
第四步,计算每一个模型组合在各场景中归一化精度的加权和ACC=C{w1*A1+w2*A2+…+wn*An},计算每一个模型组合在各场景中归一化阈值的方差VAR=var(T1, T2, T3,… ,Tn);其中,wn表示模型组合在第n号场景所对应的归一化精度的加权值;
第五步,根据所述归一化精度的加权和ACC、归一化阈值的方差VAR分别计算各模型组合和的评估值Eval=ACC+(1-VAR);
第六步,筛选出评估值Eval最高的模型组合,根据该模型组合构建融合模型,以拼接组合该模型组合中各人脸识别模型所提取出的特征向量并根据拼接组合后所得特征向量组进行人脸识别。
2.如权利要求1所述的多场景适应性模型融合方法,其特征在于,第三步中,模型组合在第n号场景中的精度an由以下步骤获得:
按照第n号场景所对应的测试集计算模型组合在该场景下的ROC曲线;
在ROC曲线中查找符合误检率要求的召回率或误检测率,计算获得该模型组合在第n号场景中的精度an。
3.如权利要求1所述的多场景适应性模型融合方法,其特征在于,第三步中,模型组合在第n号场景中的阈值tn由以下步骤获得:
按照第n号场景所对应的测试集计算模型组合在该场景下的ROC曲线;
在ROC曲线中查找符合误检率要求的阈值tn。
4.如权利要求2或3所述的多场景适应性模型融合方法,其特征在于,按照第n号场景所对应的测试集计算模型组合在该场景下的ROC曲线的步骤包括:
步骤r1,按照模型组合中所包含的每一个人脸识别模型分别提取测试集中各人脸图像所对应的模型特征向量;
步骤r2,将步骤r1中各人脸识别模型所分别提取出的模型特征向量拼接组合为多维向量;
步骤r3,比较拼接组合所获得的多维向量与各人脸图像所对应的识别向量之间的向量间距离,按照不同阈值获得该阈值下的误检率和召回率。
5.如权利要求1-4所述的多场景适应性模型融合方法,其特征在于,所述融合模型用于按照以下步骤对待识别人脸图像进行识别处理:
步骤S1,按照融合模型中所包含的每一个人脸识别模型分别提取待识别人脸图像所对应的模型特征向量;
步骤S2,将步骤S1中各人脸识别模型所分别提取出的模型特征向量拼接组合为多维向量;
步骤S3,比较组合所获得的多维向量与各识别对象所对应的识别向量之间的向量间距离,在两向量间欧式距离小于阈值Tn时,输出识别结果为该识别向量所对应的识别对象。
6.如权利要求1-5所述的多场景适应性模型融合方法,其特征在于,各识别对象所对应的识别向量分别按照以下步骤预先存储在存储单元中:
首先,按照融合模型中所包含的每一个人脸识别模型分别提取识别对象所对应的模型特征向量;
然后,将各人脸识别模型所分别提取出的模型特征向量组合为一维的识别向量;
将所述识别向量存储在存储单元中并标记其与识别对象之间的对应关系。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京甄视智能科技有限公司,未经南京甄视智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110777419.8/1.html,转载请声明来源钻瓜专利网。