[发明专利]一种基于深度学习和聚类的语义图像分割方法及系统有效
申请号: | 202010047315.7 | 申请日: | 2020-01-16 |
公开(公告)号: | CN111259904B | 公开(公告)日: | 2022-12-27 |
发明(设计)人: | 郭丽;刘知贵;张小乾;白克强;薛旭倩;刘道广;李理;张活力;吴均;付聪;喻琼 | 申请(专利权)人: | 西南科技大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/762;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 张超 |
地址: | 621000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 语义 图像 分割 方法 系统 | ||
本发明公开了一种基于深度学习和聚类的语义图像分割方法和系统,包括以下步骤:S1:通过卷积神经网络,对原图像进行卷积和池化,得到原图像的线性特征矩阵;S2:将所述线性特征矩阵,进行子空间聚类,得到聚类后的特征数据;S3:将所述聚类后的特征数据,通过反卷积和上采样,处理至与原图像相同的像素,得到分割后的图像。本发明将深度神经网络中的卷积神经网络(CNN)与子空间聚类相结合,又用稀疏子空间替代CNN中全连接层的方式,解决了现有技术中语义图像分割计算复杂,数据量大而信息贫乏的问题。在神经网络中引入子空间聚类方法,减少了CNN工作时需要的大量标记数据,实现对CNN神经网络的无监督学习。
技术领域
本发明涉及机器视觉领域,具体涉及一种基于深度学习和聚类的语义图像分割方法和系统。
背景技术
语义图像分割的目的是分类出每一块区域的语义,即这块区域是什么物体,也就是从图像中把所有物体都指出它们各自的类别,并分割出来。目前通常采用分割的方式有采用深度学习神经网络工具实现图像分割和子空聚类方式。但他们各自存在优缺点。
深度学习神经网络方式通过让计算机自动学习方式提取特征数据,将特征学习融入到建立模型过程中,减少了人为设计特征造成的不完备,已达到了分类性能较优的特点,但是往往为了达到很好的精度,需要大数据支撑,尤其全连接层的网络参数量非常大,甚至比多个卷积层的参数量还要大得多,导致系统计算的时间复杂度急剧提升。
子空间聚类是实现高维数据聚类的而有效途径,预先进行降维,常利用子空间聚类方法构建出有利于分割的图来解决复杂图像分割问题,复杂图像区域特征数据维度较高且存在大量无关属性,难以形成簇,即数据丰富而信息贫乏问题。但是,子空间聚类方法要求数据之间线性表示,可现实图像数据通常不能在输入空间中互相线性地表示,此时子空间分割就变得困难,目前一般采用基于内核的方法,但内核方法类似于基于模板的方法,其性能在很大程度上取决于内核函数的选择,内核函数选择又具有经验性,且非线性变换不明确,不能确定预定义内核是否会产生适合子空间聚类的隐式特征空间,给处理大规模数据集时带来困难。
发明内容
本发明所要解决的技术问题是现有语义图像分割技术中,系统数据量大且计算复杂和特征数据难以形成簇,不便于提取特征数据的问题,目的在于提供一种基于深度学习和聚类的语义图像分割方法和系统,解决如何避免复杂计算和更好提取特征数据的问题。
本发明通过下述技术方案实现:
一种基于深度学习和聚类的语义图像分割方法,其特征在于,包括以下步骤:
S1:通过卷积神经网络,对原图像进行卷积和池化,得到原图像的线性特征矩阵;
S2:将所述线性特征矩阵,进行子空间聚类,得到聚类后的特征数据;
S3:将所述聚类后的特征数据,通过反卷积和上采样,处理至与原图像相同的像素,得到分割后的图像。
首先采用深度学习方法通过卷积神经网络,对原图像特征数据进行多层卷积和池化,也就是一个分层非线性变换的过程,得到原图像的线性特征矩阵,并通过最高池化层传输到子空间聚类层,由于通过卷积和池化后的图像特征具有线性,使得子空间分割就变得容易。通过对子空间进行重构稀疏后,得到一个亲和度矩阵,再用谱聚类的方式进行聚类。本发明用子空间聚类层替代卷积神经网络的全连接层,减少了全连接层分类模式带来的计算时间长和计算难度大。再通过稀疏子空间聚类方法实现了对特征数据的聚类,最后为了提高分割精度,本发明采用由深度神经网络中的反卷积和上采样的方式,将分割后的图像恢复至原像素后输出。
进一步的,所述卷积神经网络包括由低到高的多层网络,每层网络均包括卷积和池化,所述步骤S1包括以下子步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南科技大学,未经西南科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010047315.7/2.html,转载请声明来源钻瓜专利网。