[发明专利]一种基于层次化稀疏建模的图像显著性检测方法有效
申请号: | 201410499111.1 | 申请日: | 2014-09-25 |
公开(公告)号: | CN104240256B | 公开(公告)日: | 2017-03-15 |
发明(设计)人: | 杨淑媛;焦李成;王士刚;张凯;侯彪;刘红英;马晶晶;马文萍;熊涛;刘赵强 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/13 | 分类号: | G06T7/13 |
代理公司: | 西安吉盛专利代理有限责任公司61108 | 代理人: | 张恒阳 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 层次 稀疏 建模 图像 显著 检测 方法 | ||
技术领域
本发明属于计算机视觉研究领域,具体是一种基于层次化稀疏建模的图像显著性检测方法,可用于模拟灵长类动物的视觉注意机制,对场景的显著区域进行提取和分析。
背景技术
灵长类动物在有限的神经元处理速度下可以对复杂场景实现实时高效的解译,归因于它们所特有的视觉注意机制。Itti等人的视觉注意理论将视觉注意模型分为两个阶段:快速的、潜意识的、自底向上的、数据驱动的显著性提取;以及慢速的、基于任务的、自顶向下的、目标驱动的显著性提取。本发明受生物视觉注意机制中层次化感知特点的启发,通过逐层稀疏建模的方式建立起视觉显著性的计算框架。在计算机视觉领域,显著图可以对感兴趣物体的提取、目标识别、自适应压缩和图像检索等应用提供支持,具有重要的意义。
目前,显著性检测可大致分为3个研究方向,即基于人眼跟踪的聚焦点预测、显著物体提取和显著物体估计。人眼聚焦模型旨在预测人在观察场景时所关注的特定点,显著物体检测旨在从场景中发现感兴趣物体并且将其从整个内容中分割出来,显著物体估计旨在用一小组边界盒来定位出显著物体的区域,以提高传统滑动窗口的在物体定位上的效率。显著物体提取的现有方法可以被大致分为基于生物启发的、基于纯计算的和两者结合的。多数的方法一般都通过比较图像区域和它们周围区域在亮度、颜色和方向上的相对差异来进行显著性的度量。
生物启发的显著性检测方法中最具代表性的是1998年Itti等人所提出的模型。Itti的显著检测方法基于Koch等人提出的用特征集成理论来解释人类视觉搜索策略的生物结构模型。视觉输入被分为亮度通道、红绿和蓝黄颜色通道、Gabor方向通道,不同的空间位置在每幅图中竞争显著性使得只有与局部相比突出的位置可以被保持。所有通道上得到的特征图依据自底向上的方式来融合成最终的显著图。这种模型用动态高斯金字塔来产生9个尺度的图像,通过线性的中心周围差异操作来模拟视觉接收场的特性,并提出了符合视觉皮层的显著图归一化方法,得到了较为理想的结果。
纯计算的显著性检测方法没有太多生物视觉原理上的支持,但大多都有坚实的理论框架支持,其中以Hou等人在2007年所提出的基于谱残差和2012年基于图像符号的谱理论最具代表性。谱残差从信息论的观点出发将图像分为Innovation和Prior Knowledge两部分,并结合自然图像在log-log尺度上所呈现出的线性特性,认为显著性部分是平滑的log-log曲线以外的部分。借助于对图像谱域的平滑结果来逼近Prior Knowledge的谱,最终的显著部分的谱是原图的谱和Prior Knowledge的谱之差,并取残差谱的傅里叶逆变换来得到最终的显著图。这种方法计算得到的为低分辨的显著图,并且倾向于突出图像中的边缘部分。给定一幅输入图像I(x),其计算过程如下。
L(f)=log(A(f)),
R(f)=L(f)-hn(f)*L(f),
S(x)=g(x)*Γ-1[exp(R(f)+P(f))]2.
其中,Γ和Γ-1表示傅里叶变换和逆变换,和表示取幅值和相位操作,hn(f)和g(x)表示频域和空域的滤波算子。
图像符号的显著检测方法将一幅图像建模为前景(显著区域)和背景(非显著区域)两部分,通过严谨的数学推导得出了显著图和图像符号的DCT反变换之间存在着很强的关联性结论。其前提假设为显著区域在空域是稀疏的,而非显著区域在DCT域是稀疏的,并且前景是服从高斯分布的。这个假设在实际情况下是能够得到较好满足的,具有很强的指导意义。首先,图像符号经过DCT逆变换后的结果和其中的前景部分具有相似性下界,即经符号函数后背景部分被极大压缩,具体关系如下所示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410499111.1/2.html,转载请声明来源钻瓜专利网。