[发明专利]一种视觉认知模型驱动的全局图像信息合成方法有效
申请号: | 201310127841.4 | 申请日: | 2013-04-12 |
公开(公告)号: | CN103247038A | 公开(公告)日: | 2013-08-14 |
发明(设计)人: | 邹丽晖;张德政;阿孜古丽 | 申请(专利权)人: | 北京科技大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T3/40 |
代理公司: | 北京市广友专利事务所有限责任公司 11237 | 代理人: | 张仲波 |
地址: | 100083*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视觉 认知 模型 驱动 全局 图像 信息 合成 方法 | ||
1.一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,包括步骤:
步骤一:建立图像显著性视觉认知模型,并以所述显著性视觉认知模型为约束导向定义全局图像信息合成的列宽选择驱动能量函数;
步骤二:构建全局图像信息合成图模型,定义节点并计算节点连接边权重:将预先采集的密集视频序列图像组成图像时空体序列V(x,y,t),并以所述密集视频序列图像中的每帧图像的列x为横坐标,以采集时间t为纵坐标,将每帧图像的每列像素看作一个节点,按时间顺序排列相邻图像列节点,在x-t坐标空间把所述图像时空体序列构建成一个全局图像信息合成图模型V(x,t):并设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异;其中,(x,y)为所述密集视频序列图像空间(列,行)坐标参数,t为所述密集视频序列图像采集路径推进的时间参数;
步骤三:根据步骤一中定义的所述列宽选择驱动能量函数,采用最短路径搜索算法在步骤二中所构建的所述全局图像信息合成图模型中搜索使得全局合成图像显著性视觉认知差异达到最小的剪切路径;
步骤四:沿所述使得全局合成图像的显著性视觉认知差异达到最小的剪切路径顺序在所述密集视频序列图像中的每帧图像中选择一定像素列宽,并将选择出的像素列宽按序码放后合成为全局合成图像。
2.如权利要求1所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,步骤一中所述显著性视觉认知模型由图像灰度信息、边界轮廓信息及景深图层区域信息三部分组成,定义如下:
CSCM(I)=αCgray(I)+βCedge(I)+γCdepth(I)
其中,CSCM(I)为所述显著性视觉认知模型;Cgray(I)为图像灰度信息;Cedge(I)为边界轮廓信息;Cdepth(I)为景深图层区域信息;α,β,γ为比例系数。
3.如权利要求2所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,所述列宽选择驱动能量函数为:
其中,是从输出的全局合成图像列M(i)到输入图像列V(x,Δy,t)的映射,Δy是V(x,t)垂直方向上的偏移量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京科技大学,未经北京科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310127841.4/1.html,转载请声明来源钻瓜专利网。