[发明专利]一种基于模型扩展卷积神经网络的图像分类方法及系统有效
申请号: | 202010768636.6 | 申请日: | 2020-08-03 |
公开(公告)号: | CN112132145B | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 李岩山;陈嘉欢 | 申请(专利权)人: | 深圳大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/77;G06V10/764;G06V10/80;G06V10/82;G06N3/0464 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 薛异荣 |
地址: | 518000 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模型 扩展 卷积 神经网络 图像 分类 方法 系统 | ||
本发明公开了一种基于模型扩展卷积神经网络的图像分类方法及系统,使用图像分割和像素点的阈值判定算法对图像进行预处理,为后续决策融合过程做铺垫并且移除了信息量较低的图像,使用细节特征注意力模型优化传统网络并通过模型扩展和后卷积特征提取机制,令网络适应和探索更深层次的特征并在系数层次上赋予更多权值,使注意力机制更加偏向于局部或细节特征,移动卷积层通过线性组合创建新图像特征并进行降维,得到包含信息量更多的图像特征向量图,有保护图像特征信息量的能力以及降低模型过拟合风险,进而实现对图像更准确的分类,在网络后端增加了决策融合过程,降低图像局部被混淆的特征对分类结果的干扰,进而提高分类器的准确率。
技术领域
本发明涉及认知图像处理领域,具体涉及一种基于模型扩展卷积神经网络的图像分类方法及系统。
背景技术
分类问题一直是深度学习研究领域的重要研究问题,在监督学习中,基本所有的问题都可以归结为分类或是回归问题。深度学习传统的图像分类主要是基于卷积神经网络,输入图像的通道数和卷积核的通道数相同,通过卷积操作对输入图像进行降维,特征抽取以及边缘信息获取,再通过池化操作学习图像在各个层次上的特征。然而,由于计算资源以及时间方面的限制,因此分类准确率和时间复杂度方面难以兼顾。
基于图像分类,近期发展了基于深度学习的图像分类算法,将图像的维度进行分解,得到多通道的二维图像,并将其转化为数组表示。随后,将不同通道的二维数组放入卷积神经网络(Convolutional Neural Networks,CNN),残差网络(Residual Network,ResNet),循环神经网络(Recurrent Neural Networks,RNN)以学习图像不同维度的特征信息和边缘信息。
基于CNN的方法是通过卷积层,池化层和全连接层配合寻找并学习图像特征的。该方法具有较强的鲁棒性,然而在准确率到达一定数值后再提高准确率需要的网络深度爆炸性增加难以达到优秀标准,并且结果的鲁棒性较差。ResNet在CNN的基础上加入了残差映射函数,减缓网络深度增加的过程中的梯度消失和梯度爆炸的问题,仍然没有解决网络训练过程中的资源的大量消耗以及时间复杂度高的问题,并且在层数超过千量级时会出现模型退化的问题。基于RNN的方法将图像的不同通道的像素值串连形成向量,然后输入到RNN模型中,这样难以学习特征之间的对应关系,图像的特征也难以表达,对空间信息的描述能力也非常有限,较难驾驭大的数据集。传统的方法不足以在小样本的前提下提取深度较深的细节特征,这将使得图像边缘信息和特征信息难以关联,出现不同类特征混淆并导致梯度消失的问题,因此难以得到好的分类效果。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中网络不能对图像的特征进行充分表达,使得分类效果差的缺陷,从而提供一种基于模型扩展卷积神经网络的图像分类方法及系统。
为达到上述目的,本发明提供如下技术方案:
第一方面,本发明实施例提供一种基于模型扩展卷积神经网络的图像分类方法,包括如下步骤:
对待分类的图像进行预处理,将满足条件的图像对应的原图像作为网络的输入图像;
通过模型扩展和后卷积特征提取机制改进卷积网络,形成细节特征注意力模型对输入图像提取特征,得到图像特征;
利用移动卷积层对每个输入通道进行滤波后计算输入通道的线性组合来创建新的图像特征,并对图像特征进行降维,得到包含信息量更多的图像特征向量图;
基于图像特征向量图对图像进行分类判断得到分类结果,并基于预设后端决策融合算法,通过后端决策融合得到得到最高置信度的分类结果作为最终的分类结果。
在一实施例中,所述对待分类的图像进行预处理,将满足条件的图像对应的原图像作为网络的输入图像,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010768636.6/2.html,转载请声明来源钻瓜专利网。