[发明专利]基于显著性指导非监督特征学习的图像分类方法在审
申请号: | 201510821480.2 | 申请日: | 2015-11-23 |
公开(公告)号: | CN105426919A | 公开(公告)日: | 2016-03-23 |
发明(设计)人: | 陈霜霜;刘惠义;曾晓勤;孟志伟 | 申请(专利权)人: | 河海大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林 |
地址: | 210098 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 显著 指导 监督 特征 学习 图像 分类 方法 | ||
技术领域
本发明涉及一种基于显著性指导非监督特征学习的图像分类方法,属于机器学习与计算机视觉技术领域。
背景技术
随着多媒体技术的发展,图像分类已成为计算机视觉领域研究的重点,图像分类是依据图像具有的某种属性而将其划分到预先设定的不同类别中,如何将图像进行有效的表达是提高图像分类准确率的关键,特征的选择与提取问题是图像分类目前存在的难点问题。随着移动互联网的迅速发展,人类社会已进入大数据时代。SIFT、HOG等这些传统的特征学习虽能提取图像的某些特征,在图像分类中也取得了较好的效果,但这种人工设计特征方法存在一定的缺陷。而传统的有监督特征学习方法,通过学习人工标注数据,在大数据时代下显得不合时宜。
发明内容
为解决现有技术的不足,本发明的目的在于提供一种基于显著性指导非监督特征学习的图像分类方法,将深度学习网络结构中融入计算机视觉中一些方法与理论,以提高图像特征的有效表示,从而达到理想的分类结果。
为了实现上述目标,本发明采用如下的技术方案:
一种基于显著性指导非监督特征学习的图像分类方法,其特征是,包括如下步骤:
1)显著性指导的像素点采集:采用显著性检测算法对图像像素点进行采集,通过获取图像的显著图,采集到图像中具有代表性表示的像素点;
2)非监督特征学习:采用稀疏自编码来训练代表性的像素点,获取图像特征;
3)图像卷积:分别用图像数据集中训练样本和测试样本对步骤2)中的图像特征进行卷积操作;
4)局部对比归一化:对步骤3)中获取的训练样本和测试样本的卷积特征进行局部减法和除法归一化;
5)空间金字塔池化:从三个不同空间尺度对步骤4)中获取的卷积图像特征进行平均池化操作;
6)融合中央先验:分别计算图像数据集中训练样本和测试样本的中央先验值,将该值与步骤5)多尺度池化特征分别进行融合操作;
7)图像分类:用步骤6)中所获训练样本的特征值来训练分类器,将步骤6)中所获训练样本的特征值输入已训练的分类器中实现图像分类。
前述的基于显著性指导非监督特征学习的图像分类方法,其特征在于,所述步骤1)具体步骤为:
1.1)采用上下文感知显著性检测算法,计算图像数据集中训练集的显著图,数据集中每幅图像具有相同的分辨率;
1.2)将每幅显著图中像素点按照灰度值的大小进行降序排列;
1.3)从每幅显著图中选取64个像素点,按照像素点灰度值的大小,从顶部5%中选取50个正像素点以及从底部30%中选取14个负像素点;
1.4)计算每幅显著图中满足要求的像素点的坐标信息[X,Y],按照此坐标找出该显著图对应原始RGB图像中的正负像素点。将每一个像素点设定为一个样本,从而获得非监督特征学习的样本集。
前述的基于显著性指导非监督特征学习的图像分类方法,其特征在于,所述步骤2)的具体步骤为:
2.1)选用稀疏自编码器作为非监督特征学习工具,设定网络采用的可视层节点为M,隐藏层节点为N;
2.2)将所得的正负像素样本集作为稀疏自编码的输入,通过非监督的学习预训练所述网络;通过不断迭代网络输入层与隐藏层之间的权重,实现数据特征的学习与特征提取,所获特征记为W,W是N行、M列大小的矩阵。
前述的基于显著性指导非监督特征学习的图像分类方法,其特征在于,所述步骤3)中的具体步骤为:
3.1)将W转为8*8卷积核,产生N*3个卷积核;
3.2)分别获取图像数据集中训练样本、测试样本中每幅图像R、G、B三通道值;
3.3)将每幅图像的三通道值分别与当前特征中的3个卷积核进行二维卷积获取特征值;
3.4)对获取的三通道特征值进行求和操作,记为x;
3.5)利用LRel激活函数计算出x的激活值y;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510821480.2/2.html,转载请声明来源钻瓜专利网。