[发明专利]多任务模型训练方法、装置及计算机可读存储介质在审
申请号: | 202210568388.X | 申请日: | 2022-05-23 |
公开(公告)号: | CN114998676A | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 周恩慈;张骞;黄畅 | 申请(专利权)人: | 北京地平线信息技术有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/80;G06V10/82;G06N3/08;G06N5/04 |
代理公司: | 北京思源智汇知识产权代理有限公司 11657 | 代理人: | 李洪娟 |
地址: | 100094 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 任务 模型 训练 方法 装置 计算机 可读 存储 介质 | ||
公开了一种多任务模型训练方法、装置及计算机可读存储介质。该方法包括:确定多个数据源对应的多组样本图像,其中,每一数据源对应一组样本图像;确定待训练的多任务模型的目标BN参数、目标权重参数和目标偏置参数;通过多组样本图像,对目标BN参数、目标权重参数和目标偏置参数进行第一阶段训练;将目标BN参数置于推理状态;在目标BN参数的推理状态下,通过多组样本图像对目标权重参数和目标偏置参数进行第二阶段训练。本公开实施例可以提升训练得到的多任务模型的性能。
技术领域
本公开涉及人工智能技术,尤其是一种多任务模型训练方法、装置及计算机可读存储介质。
背景技术
多任务模型中可以设置批量归一化(Batch Normalization,BN)层,以利用BN收敛速度快、泛化性能好的优势,然而,目前设置有BN层的多任务模型的性能较差,难以满足实际需求。
发明内容
为了解决目前设置有BN层的多任务模型的性能差的技术问题,提出了本公开。本公开的实施例提供了一种多任务模型训练方法、装置及计算机可读存储介质。
根据本公开实施例的一个方面,提供了一种多任务模型训练方法,包括:
确定多个数据源对应的多组样本图像,其中,每一数据源对应一组样本图像;
确定待训练的多任务模型的目标BN参数、目标权重参数和目标偏置参数;
通过所述多组样本图像,对所述目标BN参数、所述目标权重参数和所述目标偏置参数进行第一阶段训练;
将所述目标BN参数置于推理状态;
在所述目标BN参数的推理状态下,通过所述多组样本图像对所述目标权重参数和所述目标偏置参数进行第二阶段训练。
根据本公开实施例的另一个方面,提供了一种多任务模型训练装置,包括:
第一确定模块,用于确定多个数据源对应的多组样本图像,其中,每一数据源对应一组样本图像;
第二确定模块,用于确定待训练的多任务模型的目标BN参数、目标权重参数和目标偏置参数;
第一训练模块,用于通过所述第一确定模块确定的所述多组样本图像,对所述第二确定模块确定的所述目标BN参数、所述目标权重参数和所述目标偏置参数进行第一阶段训练;
第一状态设置模块,用于将所述第二确定模块确定的所述目标BN参数置于推理状态;
第二训练模块,用于在所述第二确定模块确定的所述目标BN参数的推理状态下,通过所述第一确定模块确定的所述多组样本图像对所述第二确定模块确定的所述目标权重参数和所述目标偏置参数进行第二阶段训练。
根据本公开实施例的再一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述多任务模型训练方法。
根据本公开实施例的又一个方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述多任务模型训练方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京地平线信息技术有限公司,未经北京地平线信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210568388.X/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种多层压合制作方法
- 下一篇:对绘画内容局部操作的方法、电子设备及存储介质