[发明专利]基于迁移学习的模型构建方法、图像识别方法及其装置有效
申请号: | 201910656794.X | 申请日: | 2019-07-19 |
公开(公告)号: | CN110598727B | 公开(公告)日: | 2023-07-28 |
发明(设计)人: | 尉桦;邵新庆;刘强 | 申请(专利权)人: | 深圳力维智联技术有限公司;南京中兴力维软件有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06N3/0442;G06N3/0464;G06N3/096 |
代理公司: | 深圳鼎合诚知识产权代理有限公司 44281 | 代理人: | 彭家恩 |
地址: | 518057 广东省深圳市南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 迁移 学习 模型 构建 方法 图像 识别 及其 装置 | ||
1.基于迁移学习的图像识别模型构建方法,其特征在于,包括:
利用第一训练集,通过深度神经网络训练得到第一学习模型;所述第一训练集包括具有第一类特征的物体的多幅图像;
利用第二训练集,对所述第一学习模型的各个网络层逐一进行参数微调,直至所述第一学习模型的损失函数的结果不再下降或者历遍所有的网络层,构建得到第二学习模型;所述第二训练集包括具有第二类特征的物体的多幅图像;
其中,选取所述第一学习模型中各个网络层的前k*m层,将所述第二训练集输入至所述前k*m层,微调所述前k*m层的参数,并且计算所述前k*m层对应的损失函数的结果,以进行一次迭代计算;其中m为大于1的正整数,k为迭代序号且k=1,2,3…;
在每次迭代计算时,通过如下公式计算前k*m层对应的损失函数的结果:
计算迁移学习的损失量:
Lossexc=||NET(A)′layer(k*m)-NET(A)layer(k*m)||2
NET表示初始的深度神经网络的模型,A表示所述第一训练集,B表示所述第二训练集,NET(A)表示所述第一学习模型,NET(A)layer(km)表示B输入至NET(A)时在第k*m层的输出量;NET(A)′表示对NET(A)的前k*m层的参数进行微调之后的网络模型,NET(A)′layer(km)表示B输入至NET(A)′时在第k*m层的输出量;
计算网络模型NET(A)′的损失量:
或,
其中,前一个Losscls为交叉熵的损失函数,后一个Losscls为欧氏距离的损失函数;y表示B输入至NET(A)′时在最后一个网络层的输出量,表示y的数据标签;
计算NET(A)的前k*m层对应的损失函数的结果:
Loss=α×Losscls+(1-α)×Lossexc
其中,α表示权重系数,且α∈[0,1];
根据k的取值变化对所述前k*m层进行多次迭代计算,直至所述前k*m层对应的损失函数的结果不再下降或者历遍所有的网络层;
利用最后一次迭代计算得到的所述第一学习模型的参数,构建得到第二学习模型;
组合所述第一训练集和所述第二训练集,通过所述第二学习模型训练得到第三学习模型;所述第三学习模型用于对具有第一类特征和/或第二类特征的物体的图像进行特征信息提取,根据提取的特征信息对待检测物体进行识别。
2.如权利要求1所述的模型构建方法,其特征在于,所述根据k的取值变化对所述前k*m层进行多次迭代计算,直至所述前k*m层对应的损失函数的结果不再下降或者历遍所有的网络层,包括:
在k分别取值k=1,2,3…时,分别计算得到所述前k*m层对应的Loss的值;
在loss的值连续等于同一值或者接近于0时,确定所述前k*m层对应的损失函数的结果不再下降;
在所述前k*m层等于或大于所述第一学习模型中网络层的总数目时,确定历遍所有的网络层。
3.如权利要求1-2中任一项所述的模型构建方法,其特征在于,所述组合所述第一训练集和所述第二训练集,通过所述第二学习模型训练得到第三学习模型,包括:
选取所述第二学习模型中各个网络层的前h*n层,将所述第一训练集和所述第二训练集组合输入至所述前h*n层,微调所述前h*n层的参数,并且计算所述前h*n层对应的损失函数的结果,以进行一次迭代计算;其中n为大于1的正整数,h为迭代序号且h=1,2,3…;
根据h的取值变化对所述前h*n层进行多次迭代计算,直至所述前h*n层对应的损失函数的结果不再下降或者历遍所有的网络层;
利用最后一次迭代计算中得到的所述第二学习模型的参数,构建得到第三学习模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳力维智联技术有限公司;南京中兴力维软件有限公司,未经深圳力维智联技术有限公司;南京中兴力维软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910656794.X/1.html,转载请声明来源钻瓜专利网。