[发明专利]视觉显著性区域检测方法及装置在审
申请号: | 201811455470.1 | 申请日: | 2018-11-30 |
公开(公告)号: | CN109543701A | 公开(公告)日: | 2019-03-29 |
发明(设计)人: | 陈沅涛;蔡烁;陈曦;张建明;邝利丹 | 申请(专利权)人: | 长沙理工大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 罗满 |
地址: | 410114 湖南省*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视觉显著性 像素点 待处理图像 视觉显著图 候选图像区域 区域检测 相似度 权重 目标图像区域 目标图像块 计算各层 计算效率 准确度 有效地 检测 两层 搜索 融合 申请 | ||
1.一种视觉显著性区域检测方法,其特征在于,包括:
利用随机搜索方法从待处理图像中为当前像素点选取多个候选图像区域块,从各候选图像区域块中选取满足相似度条件的目标图像区域块;
根据各目标图像块与所述当前像素点之间的相似度,计算所述当前像素点的视觉显著性值;
基于所述待处理图像的各像素点的视觉显著性值,生成所述待处理图像各层次的视觉显著图;
根据相邻两层视觉显著图的视觉显著性值,计算各层视觉显著图的权重值,以用于按照各层视觉显著图的权重值将各层视觉显著图进行融合。
2.根据权利要求1所述的视觉显著性区域检测方法,其特征在于,所述根据相邻两层视觉显著图的视觉显著性值,计算各层视觉显著图的权重值之后,还包括:
在融合后得到的视觉显著图中选择多个预设位置点;
对每个预设位置点,根据各个像素点的视觉显著性值,将其分为强化像素点集和弱化像素点集,所述强化像素点集中的像素点的视觉显著性值均大于所述弱化像素点集中的像素点的视觉显著性值;
利用图像增强方法对所述强化像素点集中的各像素点进行强化处理;
利用图像弱化方法对所述弱化像素点集中的各像素点进行弱化处理。
3.根据权利要求1所述的视觉显著性区域检测方法,其特征在于,所述基于所述待处理图像的各像素点的视觉显著性值,生成所述待处理图像各层次的视觉显著图包括:
基于所述待处理图像的各像素点的视觉显著性值,生成所述待处理图像各层次的粗略化视觉显著图;
对各粗略化视觉显著图进行细致化操作,以去除图像噪声信号,得到各自相应的细致化视觉显著图。
4.根据权利要求1所述的视觉显著性区域检测方法,其特征在于,所述从各候选图像区域块中选取满足相似度条件的目标图像区域块包括:
分别计算所述当前像素点和各候选图像区域块的相似度量值;
删除相似度量值低于相似度阈值对应的候选图像区域块,将剩余的候选图像区域块作为目标图像区域块。
5.根据权利要求1至4任意一项所述的视觉显著性区域检测方法,其特征在于,所述根据各目标图像块与所述当前像素点之间的相似度,计算所述当前像素点的视觉显著性值包括:
利用下述公式计算所述当前像素点的视觉显著性值S:
其中,
式中,dist(ri,rk)为所述当前像素点所在位置与第K个目标图像块之间的不相似性度量值,K为目标图像块的总个数,distcolor(ri,rk)为经过向量化处理的目标图像区域块与所述当前像素点所在位置在HSV颜色空间上的欧氏距离,distpos(ri,rk)为所述当前像素点所在位置与第K个目标图像块之间的欧式距离。
6.根据权利要求1至4任意一项所述的视觉显著性区域检测方法,其特征在于,所述基于所述待处理图像的各像素点的视觉显著性值,生成所述待处理图像各层次的视觉显著图包括:
基于频域计算所述待处理图像的各像素点的局部系统显著性值,生成局部系统显著图;
利用下述公式计算所述待处理图像的各像素点的全局系统显著性值VGlobal(x,y),生成全局系统显著图:
式中,x、y为像素点的横纵坐标值,f(x,y)为求解像素点(x,y)的显著性函数,faverage(x,y)为f(x,y)的算术平均值,所述待处理图像大小为M*N;
利用下述公式计算所述待处理图像的各像素点的稀缺显著性值VScarcity(x,y),生成稀缺显著图:
式中,x、y为像素点的横纵坐标值,faverage(x,y)为f(x,y)的算术平均值,h(faverage(x,y))为所述待处理图像产生的特征直方图;
将所述局部系统显著图、所述全局系统显著图及所述稀缺显著图进行融合,得到所述待处理图像各层次的视觉显著图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长沙理工大学,未经长沙理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811455470.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种抗遮挡的服饰关键点检测方法
- 下一篇:一种基于深度矩阵字典的字典学习方法