[发明专利]一种视觉认知模型驱动的全局图像信息合成方法有效
申请号: | 201310127841.4 | 申请日: | 2013-04-12 |
公开(公告)号: | CN103247038A | 公开(公告)日: | 2013-08-14 |
发明(设计)人: | 邹丽晖;张德政;阿孜古丽 | 申请(专利权)人: | 北京科技大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T3/40 |
代理公司: | 北京市广友专利事务所有限责任公司 11237 | 代理人: | 张仲波 |
地址: | 100083*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视觉 认知 模型 驱动 全局 图像 信息 合成 方法 | ||
技术领域
本发明涉及计算机视觉领域,是一种大视场图像合成技术,尤其是一种视觉认知模型驱动的全局图像信息合成方法。
背景技术
广域大视场图像信息获取与处理技术对诸多学科发展产生了重要影响,在国防、警戒、民事安全等诸多领域具有广泛需求。然而由于受限于摄像设备感光元器件的制作工艺,普通摄像设备视场远不能达到人眼视场大小,越来越多的应用场合需要视场范围更大、分辨率更高的图像信息以提高系统的可靠性与安全性。特别地,在安防侦查系统中,广域视场图像信息的获取更加受到重视,尤其是在现代化监控与警备模式下,图像信息是获取环境态势的必要手段。
数字图像拼接技术为打破摄像设备视场角的限制,提供了很好的解决办法,引起了研究者的广泛注意。它是通过寻找一系列空间重叠图像间的几何关系,对齐图像,并运用恰当的图像融合算法平滑过渡重叠区域,形成无缝、宽视角目标图像的技术。其主要技术分为两个流派:以Richard Szeliski为代表的基于运动关系的图像拼接模型和以Shmuel Peleg为代表的基于自适应流形的图像拼接模型。前者通过准确求出图像间的几何变换关系来进行图像配准和融合,可处理具有平移,旋转,仿射等多种变换的待拼接图像,且相邻待拼接图像不必密集重叠,因此成为图像拼接领域的经典算法;后者通过对密集采集的图像切分狭窄条带进行剪切与多重投影粘贴,根据光流垂直方向自适应选择拼接模型完成图像拼接,此类方法可突破相机运动限制,这一研究成果推动了图像拼接技术的进一步发展,成为图像拼接领域研究的新热点。
全局图像信息合成是在数字图像拼接技术基础上复现拍摄场景的关键内容,为研究人员提供更加丰富的视觉态势信息,有效降低序列窄视场图像无法准确提供全局场景中目标数量、位置关系等信息而引起的漏警、误警,提高系统的安全性能。
但是,上述两种主流图像拼接方法多集中在图像像素级数据配准与融合计算,而忽视了人的视觉认知机制作用和图像内容之间的关系处理,不能完全有效依据场景内容合成保留人们所关注的重要信息。而且在受到采集平台运动、目标物体非线性复杂运动、背景变化等因素的干扰时,更加无法有效形成全局场景图像。因此,对场景内含有复杂多维运动物体的全局图像信息合成问题更待进一步提出有效的方案。
发明内容
本发明的目的是解决场景内含有复杂多维运动物体的全局图像信息合成问题,本发明提出一种视觉认知模型驱动的全局图像信息合成方法,能够克服全局图像合成过程中运动物体多维复杂运动对全局图像拼接合成的影响。
本发明提供的一种视觉认知模型驱动的全局图像信息合成方法,包括步骤:步骤一:建立图像显著性视觉认知模型,并以所述显著性视觉认知模型为约束导向定义全局图像信息合成的列宽选择驱动能量函数;步骤二:构建全局图像信息合成图模型,定义节点并计算节点连接边权重;将预先采集的密集视频序列图像组成图像时空体序列V(x,y,t),并以所述密集视频序列图像中的每帧图像的列x为横坐标,以采集时间t为纵坐标,将每帧图像的每列像素看作一个节点,按时间顺序排列相邻图像列节点,在x-t坐标空间把所述图像时空体序列构建成一个全局图像信息合成图模型V(x,t):并设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异;其中,(x,y)为所述密集视频序列图像空间(列,行)坐标参数,t为所述密集视频序列图像采集路径推进的时间参数;步骤三:根据步骤一中定义的所述列宽选择驱动能量函数,采用最短路径搜索算法在步骤二中所构建的所述全局图像信息合成图模型中搜索使得全局合成图像显著性视觉认知差异达到最小的剪切路径;步骤四:沿所述使得全局合成图像的显著性视觉认知差异达到最小的剪切路径顺序在所述密集视频序列图像中的每帧图像中选择一定像素列宽,并将选择出的像素列宽按序码放后合成为全局合成图像。
所述视觉认知模型驱动的全局图像信息合成方法中,步骤一中所述显著性视觉认知模型由图像灰度信息、边界轮廓信息及景深图层区域信息三部分组成,定义如下:
CSCM(I)=αCgray(I)+βCedge(I)+γCdepth(I)
其中,CSCM(I)为所述显著性视觉认知模型;Cgray(I)为图像灰度信息;Cedge(I)为边界轮廓信息;Cdepth(I)为景深图层区域信息;α,β,γ为比例系数。
所述视觉认知模型驱动的全局图像信息合成方法中,所述列宽选择驱动能量函数为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京科技大学,未经北京科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310127841.4/2.html,转载请声明来源钻瓜专利网。