[发明专利]基于超像素分割及深度特征定位的显著性目标检测方法有效
申请号: | 201710255712.1 | 申请日: | 2017-04-19 |
公开(公告)号: | CN107169487B | 公开(公告)日: | 2020-02-07 |
发明(设计)人: | 肖嵩;熊晓彤;刘雨晴;李磊;王欣远;杜建超 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06K9/48;G06K9/62;G06T7/11;G06T7/90;G06T7/529 |
代理公司: | 61205 陕西电子工业专利中心 | 代理人: | 程晓霞;王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 像素 分割 深度 特征 定位 显著 目标 检测 方法 | ||
本发明提出一种基于超像素分割及深度特征定位的显著性目标检测方法。解决了传统显著性目标检测方法目标分割效果不理想的问题。其实现包括,本发明利用颜色相似性线性迭代的超像素分割,把图像的处理单位由单独像素点上升到集体类似区域;充分考虑颜色特征,方向特征和深度特征等图像特征,结合人眼更关心中心而忽视周围背景的特性、显著性图像所在区域的特征相似性及相较于全局特征的独特性的先验知识,生成输入图像的定位显著图和深度显著图,对其进行融合和边界处理。本发明检测图像效果边缘更清晰,背景剔除更完全,目标形态分割更完整。用于人脸识别,车辆检测,运动目标检测跟踪,军事导弹检测,医院病理检测等各个领域。
技术领域
本发明属于图像检测技术领域,主要涉及显著性目标检测方法,具体是一种基于超像素分割及深度特征定位的显著性目标检测方法。用于人脸识别,车辆检测,运动目标检测跟踪,军事导弹检测,医院病理检测等各个领域。
背景技术
随着数据数目的不断庞大,单位时间内积累的数据量指数型猛涨,庞大的数据量便需要更优秀的计算机技术和算法理论来处理提炼数据信息。随着高分辨率图像层出不穷,带给人极大的视觉享受。人们对于复杂图像的理解,已到达很高的水平。传统的图像处理将像素点独立开来,或者完全整体性的分析图像所传到的信息含义,面对庞大的数据量,传统的处理图像的方法已远远达不到高效实时的要求。同时仅仅通过考虑人眼注意机制的相关特征,比如颜色特征,方向特征等简单特征也已不能满足提取显著性目标检测的所要效果了。或者人工去处理待检测图像,工作难度大、压力大、负荷重。如何让计算机模拟人眼视觉机制,实现类似于人类的显著性注意机制去处理图像信息已经成为一个亟待解决的热门话题。
现有的显著性目标检测方法有些只考虑图像本身的特征去寻找图像目标区域和背景区域存在的差异性,以此来辨别目标位置和背景区域。还有利用马尔科夫链来处理显著图,寻找中央显著区和周围背景区的相互之间影响关系。也还有利用幅度谱和滤波器的卷积来实现冗余信息最终寻找显著区域的方法。再者有关注局部对比度和全局对比度等各类方法。虽然这些方法都达到一定检测到显著性目标的有效性,但是检测效果在边缘分割,背景剔除,目标形态提取方面差强人意,有一定局限性。而且大都是把图像特征以单独像素点的形式进行处理,这已经远远不能满足现状。
发明内容
本发明的目的在于克服现有技术的不足,提供一种边缘更清晰,背景剔除更完全,目标形态分割更完整的基于超像素分割及深度特征定位的显著性目标检测方法。
本发明是一种基于超像素分割及深度特征定位的显著性目标检测方法,其特征在于,包括有如下步骤:
步骤1:输入图像对其进行线性迭代的聚类分割。输入待检测的目标图像,先分割成K个区域,寻找各个区域邻域的局部梯度极小值点作为中心点,并对同一区域设定一标签号;寻找距离像素点邻域内五维欧式距离最小的中心点,并将中心点标签赋予待处理的像素点;不断迭代寻找距离像素点最小的中心点的过程,在像素点的标签值不会发生变化时停止迭代,完成超像素分割;
步骤2:构建高斯差分生成定位显著图。
2a:根据输入的原图进行高斯函数滤波处理,生成原图的8个层度尺度图;
2b:对构建的8个层度的尺度图再结合原图形成九层尺度图,提取九层尺度图像的红绿颜色差值图以及蓝黄颜色差值图,共18副颜色差值图;提取九层尺度图的强度图,共9副强度图;提取九层尺度图的Gabor滤波方向图,共36副方向图,形成三类特征图;
2c:因九层尺度图同类特征之间的尺寸不一样,对三类特征图先经过插值处理,再进行差分处理;
2d:不同类型的特征图之间因其特征的度量标准不同,需要先将不同类型的特征进行归一化再融合为定位显著图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710255712.1/2.html,转载请声明来源钻瓜专利网。