[发明专利]物体识别网络的训练方法及装置、电子设备和存储介质在审
申请号: | 201910935113.3 | 申请日: | 2019-09-29 |
公开(公告)号: | CN110659625A | 公开(公告)日: | 2020-01-07 |
发明(设计)人: | 赵波;陈大鹏;赵瑞 | 申请(专利权)人: | 深圳市商汤科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 11277 北京林达刘知识产权代理事务所(普通合伙) | 代理人: | 刘新宇 |
地址: | 518054 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体识别 训练图像 网络 存储介质 电子设备 网络学习 训练收敛 准确率 | ||
1.一种物体识别网络的训练方法,其特征在于,包括:
通过第一物体识别网络对第一训练图像进行识别得到对应的第一识别结果,以及对第二训练图像进行识别得到对应的第二识别结果;
根据所述第一识别结果和所述第一训练图像的真实类别,确定第一误差;
根据所述第二识别结果和所述第二训练图像对应的第三识别结果,确定第二误差,其中,所述第三识别结果为第二物体识别网络对所述第二训练图像进行识别得到的,所述第二物体识别网络是根据所述第二训练图像训练收敛的;
根据所述第一误差和所述第二误差,训练所述第一物体识别网络。
2.根据权利要求1所述的方法,其特征在于,所述第一训练图像包含于第一图像集合,所述第一图像集合中包含一个或多个第一类别,所述第二训练图像包含于第二图像集合,所述第二图像集合中包含一个或多个第二类别;
在所述通过第一物体识别网络对第一训练图像进行识别得到对应的第一识别结果,以及对第二训练图像进行识别得到对应的第二识别结果之前,所述方法还包括:
从第一类别和第二类别中抽取C个类别,其中,C为大于1的整数;
从所述C个类别中的各个类别中分别抽取N个图像,将抽取的图像中属于所述第一类别的图像作为第一训练图像,将抽取的图像中属于所述第二类别的图像作为第二训练图像,其中,N为大于1的整数。
3.根据权利要求2所述的方法,其特征在于,从所述C个类别中的各个类别中分别抽取N个图像,将抽取的图像中属于所述第一类别的图像作为第一训练图像,将抽取的图像中属于所述第二类别的图像作为第二训练图像,包括:
若所述C个类别包括任一第一类别,则从所述第一类别的所有图像样本中抽取N个图像作为第一训练图像;和/或,
若所述C个类别包括任一第二类别,则从所述第二类别的待训练图像集中抽取N个图像作为第二训练图像,其中,所述第二类别的待训练图像集包括所述第二类别的部分图像样本。
4.一种物体识别方法,其特征在于,通过权利要求1至3中任意一项所述的方法训练得到参数收敛的所述第一物体识别网络,并通过参数收敛的所述第一物体识别网络获得待识别图像的识别结果。
5.一种物体识别网络的训练装置,其特征在于,包括:
识别模块,用于通过第一物体识别网络对第一训练图像进行识别得到对应的第一识别结果,以及对第二训练图像进行识别得到对应的第二识别结果;
第一确定模块,用于根据所述第一识别结果和所述第一训练图像的真实类别,确定第一误差;
第二确定模块,用于根据所述第二识别结果和所述第二训练图像对应的第三识别结果,确定第二误差,其中,所述第三识别结果为第二物体识别网络对所述第二训练图像进行识别得到的,所述第二物体识别网络是根据所述第二训练图像训练收敛的;
训练模块,用于根据所述第一误差和所述第二误差,训练所述第一物体识别网络。
6.根据权利要求5所述的装置,其特征在于,所述第一训练图像包含于第一图像集合,所述第一图像集合中包含一个或多个第一类别,所述第二训练图像包含于第二图像集合,所述第二图像集合中包含一个或多个第二类别;
所述装置还包括:
第一抽取模块,用于从第一类别和第二类别中抽取C个类别,其中,C为大于1的整数;
第二抽取模块,用于从所述C个类别中的各个类别中分别抽取N个图像,将抽取的图像中属于所述第一类别的图像作为第一训练图像,将抽取的图像中属于所述第二类别的图像作为第二训练图像,其中,N为大于1的整数。
7.根据权利要求6所述的装置,其特征在于,所述第二抽取模块用于:
若所述C个类别包括任一第一类别,则从所述第一类别的所有图像样本中抽取N个图像作为第一训练图像;和/或,
若所述C个类别包括任一第二类别,则从所述第二类别的待训练图像集中抽取N个图像作为第二训练图像,其中,所述第二类别的待训练图像集包括所述第二类别的部分图像样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市商汤科技有限公司,未经深圳市商汤科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910935113.3/1.html,转载请声明来源钻瓜专利网。