[发明专利]分类网络的训练方法及分类方法和装置、电子设备有效
申请号: | 201910049144.9 | 申请日: | 2019-01-18 |
公开(公告)号: | CN109800807B | 公开(公告)日: | 2021-08-31 |
发明(设计)人: | 甘伟豪;王意如 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京思源智汇知识产权代理有限公司 11657 | 代理人: | 毛丽琴 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类 网络 训练 方法 装置 电子设备 | ||
1.一种分类网络的训练方法,其特征在于,包括:
基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;
基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本;所述采样比例对应的不同图像类别的样本图像数量之间的差别随着所述已采样次数的增加而减小;
基于所述多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
2.根据权利要求1所述的方法,其特征在于,所述至少两个图像类别包括第一图像类别和第二图像类别,其中,所述第一图像类别包含的样本图像的数量大于所述第二图像类别包含的样本图像的数量。
3.根据权利要求1所述的方法,其特征在于,所述采样样本包括至少两个样本图像,所述至少两个样本图像对应至少一个图像类别。
4.根据权利要求1所述的方法,其特征在于,所述基于所述多次采样获得的多个采样样本训练分类网络,获得目标分类网络,包括:
通过所述分类网络处理所述采样样本,获得所述采样样本的网络损失;
基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
5.根据权利要求4所述的方法,其特征在于,所述通过所述分类网络处理所述采样样本,获得所述采样样本的网络损失,包括:
通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失;
基于所述采样样本的至少两个损失,获得所述采样样本的网络损失。
6.根据权利要求5所述的方法,其特征在于,所述基于所述采样样本的至少两个损失,获得所述采样样本的网络损失,包括:
对所述采样样本的至少两个损失进行加权求和,获得所述采样样本的网络损失,其中,所述至少两个损失中包含的至少一个损失的权重依赖于所述采样样本对应的当前已训练次数。
7.根据权利要求6所述的方法,其特征在于,所述至少一个损失包括预测损失和嵌入损失中的至少一种。
8.根据权利要求7所述的方法,其特征在于,所述至少两个损失中的嵌入损失在所述当前已训练次数为第一数值时对所述网络损失的贡献比例低于在所述当前已训练次数为第二数值时对所述网络损失的贡献比例,其中,所述第一数值大于所述第二数值;和/或
所述至少两个损失中的预测损失在所述当前已训练次数为所述第一数值时对所述网络损失的贡献比例高于在所述当前已训练次数为所述第二数值时对所述网络损失的贡献比例。
9.根据权利要求7所述的方法,其特征在于,响应于所述当前已训练次数小于第一预设阈值,所述至少一个损失中的嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述至少一个损失中的嵌入损失的权重保持为固定值。
10.根据权利要求5-9任一所述的方法,其特征在于,所述通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失。
11.根据权利要求10所述的方法,其特征在于,所述基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失,包括:
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;
基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测误差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910049144.9/1.html,转载请声明来源钻瓜专利网。