[发明专利]图像分类模型设计方法及装置在审
申请号: | 201711403379.0 | 申请日: | 2017-12-22 |
公开(公告)号: | CN108229543A | 公开(公告)日: | 2018-06-29 |
发明(设计)人: | 乔宇;郭胜;王利民;黄韡林 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 深圳中一专利商标事务所 44237 | 代理人: | 官建红 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 设计方法及装置 图像分类模型 网络模型 初始网络 损失函数 预测结果 图像数据库 数量要求 图像分类 训练样本 有效解决 歧义性 构建 减小 标注 标签 优化 | ||
本发明提供了一种图像分类模型设计方法及装置,其中方法包括:根据有标签的图像数据库,训练得到图像分类的初始网络模型;根据所述初始网络模型的预测结果和最终网络模型的预测结果,构建所述最终网络模型对应的损失函数;根据所述损失函数,优化所述最终网络模型。本发明提供的图像分类模型设计方法及装置,对训练样本的数量要求较低,减小了设计的难度和成本,并且有效解决了标注歧义性的问题。
技术领域
本发明属于计算机技术领域,更具体地说,是涉及一种图像分类模型设计方法及装置。
背景技术
大规模场景识别问题由于其在图像理解中的重要应用在计算机视觉中受到越来越多的关注。场景识别的挑战来自场景类别的歧义性和类内差异大。随着深度学习方法在计算机视觉问题上的成功,卷积神经网络(CNNs)在大规模场景识别问题上取得了重大进展。因为有了大规模的场景数据库,使得重新训练一个专用于场景识别的CNNs模型成为可能。
最近的研究显示CNNs可以学习强大的场景分类的高级语义特征。最近强大的CNN架构的出现也大大促进了场景识别性能的提升。尽管这些通用性网络结构在场景识别取得了显著的进展,但是大规模场景识别仍然是一个具有挑战性的问题。目前,深度学习的CNNs结构都是建立在大规模学习的基础上,往往要有大量的训练样本,增加了设计的难度和成本。
发明内容
有鉴于此,本发明实施例提供一种图像分类模型设计方法及装置,可以解决现有技术中图像分类模型设计成本较高的技术问题。
一方面,本发明实施例提供一种图像分类模型设计方法,包括:
根据有标签的图像数据库,训练得到图像分类的初始网络模型;
根据所述初始网络模型的预测结果和最终网络模型的预测结果,构建所述最终网络模型对应的损失函数;
根据所述损失函数,优化所述最终网络模型。
可选的,根据有标签的图像数据库,训练得到图像分类的初始网络模型,包括:
从有标签的图像数据库中选取一个子集,根据所述子集训练得到图像分类的初始网络模型;
或者,使用所述有标签的图像数据库中的所有图像,训练得到图像分类的初始网络模型。
可选的,在根据所述初始网络模型的预测结果和最终网络模型的预测结果,构建所述最终网络模型对应的损失函数之前,还包括:
选取卷积神经网络模型;
为所述卷积神经网络模型的参数赋值,得到所述最终网络模型。
可选的,根据所述初始网络模型的预测结果和最终网络模型的预测结果,构建所述最终网络模型对应的损失函数,包括:
获取一组有标签的训练集D;
根据所述训练集D,构建如下的损失函数:
其中,Ii为集合D中第i幅图像,yi为集合D中图像Ii的标签,pi为最终网络模型对图像Ii,j的预测结果,qi,j为初始网络模型对图像Ii的预测结果,I为指示函数,λ为平衡参数,C为标签类别数目。
可选的,根据所述初始网络模型的预测结果和最终网络模型的预测结果,构建所述最终网络模型对应的损失函数,包括:
获取训练集D,所述训练集D包括一组有标签的训练集D1和一组无标签的训练集D2;
根据所述训练集D,构建如下的损失函数:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711403379.0/2.html,转载请声明来源钻瓜专利网。