[发明专利]分类模型的训练方法、装置、电子设备及存储介质在审
申请号: | 202011639624.X | 申请日: | 2020-12-31 |
公开(公告)号: | CN112651461A | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 杨傲楠 | 申请(专利权)人: | 深圳云天励飞技术股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳驿航知识产权代理事务所(普通合伙) 44605 | 代理人: | 杨伦 |
地址: | 518000 广东省深圳市龙岗区园山*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类 模型 训练 方法 装置 电子设备 存储 介质 | ||
本发明实施例提供一种分类模型的训练方法,方法包括:获取不同类别的训练数据对分类模型进行训练;在当前迭代训练过程中,计算当前样本到对应类别的类别框的第一中心距;获取在上一迭代训练过程中的分类模型的第一损失函数,第一损失函数包括在上一迭代训练过程所确定的第一类别框参数;根据第一中心距、第一类别框参数,对第一损失函数中的第一类别框参数进行更新,得到第二类别框参数,并基于第二类别框参数确定当前样本对应的类别的第二损失函数;通过各个类别的第二损失函数,确定各个类别对应的动态损失函数;根据动态损失函数,对分类模型进行训练。可以提高分类模型的训练效率,并提高分类模型的分类识别精确度。
技术领域
本发明涉及人工智能领域,尤其涉及一种分类模型的训练方法、装置、电子设备及存储介质。
背景技术
在分类模型的训练过程中,需要使用到样本数据作为输入,在有监督的情况下使分类模型能够学习到对样本数据的分类识别。为了使分类模型具有更高的分类精度,可以增大各个类别之间的距离,减小同一类别中各个样本之间的距离,通常的做法是在损失函数中加入一个超参数margin对同一个类别的样本进行框定,将超出框定范围的类内样本进行惩罚,使后续训练时,类内样本向框定范围内靠近。但是在实际训练任务中很难设置一个适应这批数据的、通过用的margin值,或者说需要大量的调参实验和权衡各个类别之间的精度才能够调试出一组使用于该数据集的margin值,这样不仅浪费了大量精力和时间去“试错”,最终导致能够找到合适的margin值的概率非常小。因此,现有超参数margin的获取方式复杂且难度高,使得分类模型的训练效率较低。
发明内容
本发明实施例提供一种分类模型的训练方法,能够在分类模型的训练过程中通过各个类别的样本分布的中心距对类别框参数(超参数margin)进行更新,不需要进行大量的调参实验和权衡各个类别之间的精度就可以得到适合各个类别的类别框参数,从而得到各个类别对应的动态损失函数,可以提高分类模型的训练效率,并根据各个类别对应的动态损失函数,提高分类识别精确度。
第一方面,本发明实施例提供一种分类模型的训练方法,所述方法包括:
获取不同类别的训练数据对分类模型进行训练,所述训练数据包括不同类别的样本,所述分类模型为行人识别模型、车辆识别模型、物体检测模型、文章分类模型、音乐分类模型、视频分类模型、场景图像分类模型中的任意一个,所述训练数据为行人图像数据、车辆图像数据、物体图像数据、文本数据、音频数据、视频数据、场景图像数据中与所述分类模型对应的一项;
在当前迭代训练过程中,计算当前样本在对应类别的第一中心距;
获取在上一迭代训练过程中的所述分类模型的第一损失函数,所述第一损失函数包括在上一迭代训练过程所确定的第一类别框参数;
根据所述第一中心距、第一类别框参数,对所述第一损失函数中的第一类别框参数进行更新,得到第二类别框参数,并基于所述第二类别框参数确定当前样本对应的类别的第二损失函数,所述第二类别框参数与所述第一中心距为正相关;
通过各个类别的第二损失函数,确定各个类别对应的动态损失函数;
根据所述动态损失函数,对所述分类模型进行训练。
可选的,所述分类模型包括分类层参数,所述当前迭代为第n次迭代,所述在当前迭代训练过程中,计算当前样本在对应类别的第一中心距,包括:
获取第n次迭代时分类层参数以及各个类别的样本特征;
根据所述第n次迭代时的分类层参数以及各个类别的样本特征,计算第n次迭代时的各个类别的样本对应的第一中心距。
可选的,所述根据所述第一中心距、第一类别框参数,对所述第一损失函数中的第一类别框参数进行更新,得到第二类别框参数,包括:
对所述第一类别框参数进行扩容,得到扩容后的第一类别框参数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳云天励飞技术股份有限公司,未经深圳云天励飞技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011639624.X/2.html,转载请声明来源钻瓜专利网。