[发明专利]一种模型训练方法、场景识别方法及相关设备在审
申请号: | 202110301843.5 | 申请日: | 2021-03-22 |
公开(公告)号: | CN115187824A | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 戚向涛;刘艳 | 申请(专利权)人: | 华为技术有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 王仲凯 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 模型 训练 方法 场景 识别 相关 设备 | ||
一种模型训练方法、场景识别方法及相关设备,用于提高场景识别的准确率。本申请实施例方法包括:获取第一图像,利用物体检测模型识别第一图像中与场景识别无关的目标物体的图像,对第一图像中目标物体所在的区域进行掩膜处理,得到第三图像;然后利用图像生成模型生成与场景识别无关的多张样本物体图像,组合样本物体图像和第三图像,得到目标图像;将目标图像输入到第一卷积神经网络进行训练,并将第三图像输入到第二卷积神经网络进行训练,得到场景识别模型,场景识别模型能够降低对目标图像中产生差异的图像特征的关注度,并更容易学习到不同场景类别之间差异特征,场景识别模型能够提升场景识别的准确率。
技术领域
本申请涉及人工智能技术领域,尤其涉及人工智能应用领域中的计算机视觉领域中的一种模型训练方法、场景识别方法及相关设备。
背景技术
人工智能(artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能的应用领域包括计算机视觉领域,场景识别是计算机视觉领域的重要分支技术。场景识别是指对图像中能够体现的环境或主体(人或物)所处的环境进行识别(或称为“分类”),旨在通过提取和分析场景图像中的特征,获取场景的信息,从而对图像所属的场景进行识别。
当前技术中的场景识别装置大多采用通用的图像识别模型(既用于识别对象,又用于识别场景)来对场景图像进行识别,通用的图像识别模型对场景识别的准确率有限,且场景识别的应用场景受限。
发明内容
本申请实施例提供了一种模型训练方法、场景识别方法及相关设备,用于提高场景识别的准确率。
第一方面,本申请提供了一种模型训练方法,该方法应用于训练设备,所述方法包括:训练设备获取第一训练数据集,第一训练数据集中包括多张第一图像,该第一图像为场景图像,例如,一张第一图像为“办公室”场景的图像,第一图像中可能包括与场景识别无关的物体的图像;训练设备利用物体检测模型识别第一图像中的第一区域,第一区域是与场景识别无关的图像区域;然后,训练设备对第一区域进行掩膜处理,得到第三图像;掩膜处理的作用是对第一区域进行遮挡;再后,训练设备获取图像生成模型生成的多张样本物体图像,样本物体图像是与场景识别无关的物体的图像;训练设备将多张样本物体图像分别替换到第三图像中掩膜覆盖的第一区域,得到多张目标图像;组合得到多张目标图像,一方面从数据量上来说,对第一训练数据集中的图像的数量进行了扩充。另一方面从图像之间的差异上来说,针对同一个类别的图片,第三图像中保留了与场景识别相关的背景的图像,而图像生成模型生成的样本物体图像用于作为新合成的目标图像之间的差异图像。最后,训练设备利用目标图像的数据集训练第一卷积神经网络,并利用第三图像的数据集训练第二卷积神经网络,得到场景识别模型,场景识别模型包括第一卷积神经网络和第二卷积神经网络。本申请实施例中,训练设备通过大量的新合成的目标图像对第一卷积神经网络进行训练,同一个类别的场景图像中引入与场景识别无关的物体的图像,使得场景识别模型降低对场景图像中差异图像的特征的关注度,从而减弱类内差异性对场景识别模型分类性能造成的不利影响。另外,训练设备遮挡掉与场景识别无关的图像区域后,通过与场景识别有关的图像(即第三图像)对第二卷积神经网络进行训练,第二卷积神经网络更容易学习到不同场景类别之间差异特征,从而减弱类间相似性对场景识别模型分类性能造成的不利影响。训练设备得到的场景识别模型能够降低同类别的场景图像的类内差异性对场景识别模型的分类性能带来的负面影响,和不同场景类别的类间相似性对场景识别模型的分类性能带来的负面影响,进而能够提升场景识别的准确率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110301843.5/2.html,转载请声明来源钻瓜专利网。