[发明专利]一种基于网络监督的目标分类和定位方法有效
申请号: | 201910941413.2 | 申请日: | 2019-09-30 |
公开(公告)号: | CN110717534B | 公开(公告)日: | 2020-09-15 |
发明(设计)人: | 叶齐祥;付梦莹;万方;韩振军;焦建彬 | 申请(专利权)人: | 中国科学院大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京康思博达知识产权代理事务所(普通合伙) 11426 | 代理人: | 孙建玲;刘冬梅 |
地址: | 100049 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 网络 监督 目标 分类 定位 方法 | ||
1.一种基于网络监督的目标分类和定位方法,该方法包括训练分类和定位网络用以进行目标分类和定位的过程,分类和定位网络的训练过程包括以下步骤:
步骤1),根据待测目标的类别自动从搜索引擎获取大量网络图像数据;
以图像类别名称作为关键词在选取的网站中爬取所有网络图片作为训练使用的数据集;
步骤2),过滤去除噪声图像,形成训练样本集;
步骤2)可以通过以下子步骤实现:
步骤2.1),将训练样本集对应的列表文本文件中的所有图像列表分成N份,形成的N份图像列表之间互斥且其中均包括各类别列表中的数据;
步骤2.2),在N份图像列表中依次选择不同的N-1份组合成一个训练集的图像索引,剩下的那一份作为测试集的图像索引,可以形成N组训练集的图像索引和对应的测试集的图像索引;
步骤2.3),将步骤2.2)中每组训练集在卷积神经网络上训练,再输入测试集,删除测试集中分类测试结果中置信度小于阈值的图像,从而得到干净的训练样本集;
步骤3),初步构建分类和定位网络;
分类和定位网络的构建可以通过以下方式实施:
将卷积神经网络最后一层卷积层后的池化层和所有的全连接层删除,在最后一层卷积层后增加一个通道数为其通道数2倍的卷积层,其后连接全局平均池化层和一个softmax回归层,得到用于分类和定位的网络;
或者通过以下方式实施:
将卷积神经网络最后一层卷积层后的池化层和所有的全连接层删除,在最后一层卷积层后增加一个通道数为预测类别总数C的卷积层,其后连接全局平均池化层和一个softmax回归层,得到用于分类和定位的网络;
其中,预测类别总数C为训练样本集中图像类别总数;
步骤4),将训练样本集中的样本输入到初步构建的分类和定位网络中进行特征提取,将特征分类,并得到目标物体的位置信息,实施对分类和定位网络的训练。
2.根据权利要求1所述的方法,其特征在于,步骤1)中,从搜索引擎上爬取的网络图片生成一个包含其所有图片路径的列表文本文件,以该列表文本文件作为输入数据的索引。
3.根据权利要求1所述的方法,其特征在于,在步骤2.1)中,采用分层抽样的方法,将训练样本集对应的列表文本文件中的所有图像列表分成N份。
4.根据权利要求1所述的方法,其特征在于,在步骤2.3)中,该卷积神经网络与步骤3)或步骤4)中用于分类和定位的网络类型一致。
5.根据权利要求1所述的方法,其特征在于,步骤4)中还包括分类和定位网络的优化过程,主要用于对分类过程的优化,该过程包括以下步骤:
步骤4.1)设计交叉熵损失函数,根据损失函数计算梯度,对整个卷积层网络进行梯度反传,并更新卷积层网络参数;
步骤4.2)根据交叉熵损失函数计算得到的分类误差判定网络是否已经达到最大迭代次数,如果已经达到最大迭代次数,停止网络训练,否则继续实施网络的训练;
任选地,步骤4.1)中,所述交叉熵损失函数=;
其中,,表示类别c的标签,α是网络的参数,为类别置信度。
6.根据权利要求1所述的方法,其特征在于,该基于网络监督的目标分类和定位方法还包括利用训练完成的分类和定位网络对没有任何标注信息的未知图像进行分类预测以及定位信息预测的过程,具体步骤如下:
步骤5.1):将给定的未知图像输入训练好的分类和定位网络;
步骤5.2):在最后一个卷积层的特征图上使用激活的方法进行特征提取,得到类激活映射图,即图像中目标的位置信息;
步骤5.3):利用全局平均池化层对步骤5.2)中提取出的类激活映射图分类,得到该图像属于每个类别的概率,即图像中目标的分类信息。
7.根据权利要求1至6之一所述的方法,其特征在于,对训练样本集和测试样本集中的图片重置图像分辨率,即将图像分辨率调整至相同大小且满足分类和定位网络的输入要求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院大学,未经中国科学院大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910941413.2/1.html,转载请声明来源钻瓜专利网。