[发明专利]场景识别模型训练方法、场景识别方法及模型训练装置在审
申请号: | 202110222817.3 | 申请日: | 2021-02-26 |
公开(公告)号: | CN113723159A | 公开(公告)日: | 2021-11-30 |
发明(设计)人: | 郭卉 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 梁嘉琦;谭英强 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 识别 模型 训练 方法 装置 | ||
本发明实施例公开了一种场景识别模型训练方法、场景识别方法及模型训练装置,该场景识别模型训练方法通过对所述全局场景特征进行注意力提取得到局部特征,利用局部特征得到局部预测损失,利用全局场景特征与局部特征合并得到融合特征,利用融合特征得到融合预测损失,再根据局部预测损失和融合预测损失得到总预测损失值来进行场景识别模型的参数修正,由于该实施例中通过训练图像的场景类别标签分别进行局部预测损失值和融合预测损失值的计算,从而无须对训练图像的局部特征进行标注,可以降低人工标注的投入,降低模型训练的复杂程度,可广泛应用于图像识别技术领域。
技术领域
本发明涉及图像识别技术领域,特别是涉及一种场景识别模型训练方法、场景识别方法及模型训练装置。
背景技术
场景识别是计算机视觉技术的热点问题,通过场景识别能够得到图像中的场景信息。场景识别具有丰富的应用领域,例如自动监视、人机交互、视频索引、图像索引等。场景识别难度比通用物体识别大,造成这一难题的原因是场景特征经常在场景识别的背景环境中。而常规的场景识别方法一般都是集中在特定物体或者部位上提取特征,这种方式在训练场景识别模型时需要对样本中的物体进行大量的标注,训练的复杂程度较高。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本发明实施例提供了一种场景识别模型训练方法、场景识别方法及模型训练装置,能够降低模型训练的复杂程度。
一方面,本发明实施例提供了一种场景识别模型训练方法,包括以下步骤:
获取训练图像以及所述训练图像的场景类别标签;
将所述训练图像输入至场景识别模型得到第一场景分类结果以及目标场景分类结果;
根据所述第一场景分类结果以及所述场景类别标签得到局部预测损失值,根据所述目标场景分类结果以及所述场景类别标签得到融合预测损失值,根据所述局部预测损失值以及所述融合预测损失值得到总预测损失值;
根据所述总预测损失值对所述场景识别模型的参数进行修正;
其中,所述将所述训练图像输入至场景识别模型得到第一场景分类结果以及目标场景分类结果,包括:
通过所述场景识别模型提取所述训练图像的全局场景特征,对所述全局场景特征进行注意力提取,得到局部特征,对所述局部特征进行场景类别预测得到第一场景分类结果;将所述全局场景特征和所述局部特征合并,得到融合特征,对所述融合特征进行场景类别预测得到目标场景分类结果。
另一方面,本发明实施例还提供了一种场景识别方法,包括以下步骤:
获取待识别图像;
将所述待识别图像输入至场景识别模型,得到目标场景分类结果;
其中,所述场景识别模型通过上述场景识别模型训练方法训练得到。
另一方面,本发明实施例还提供了一种场景识别模型训练装置,包括:
样本获取单元,用于获取训练图像以及所述训练图像的场景类别标签;
识别单元,用于将所述训练图像输入至场景识别模型,通过所述场景识别模型提取所述训练图像的全局场景特征,对所述全局场景特征进行注意力提取,得到局部特征,对所述局部特征进行场景类别预测得到第一场景分类结果;将所述全局场景特征和所述局部特征合并,得到融合特征,对所述融合特征进行场景类别预测得到目标场景分类结果;
损失值计算单元,用于根据所述第一场景分类结果以及所述场景类别标签得到局部预测损失值,根据所述目标场景分类结果以及所述场景类别标签得到融合预测损失值,根据所述局部预测损失值以及所述融合预测损失值得到总预测损失值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110222817.3/2.html,转载请声明来源钻瓜专利网。
- 上一篇:复合砂轮及具有该复合砂轮的磨削装置
- 下一篇:存储器装置及其操作方法