[发明专利]一种基于视差最小可察觉误差模型的感知立体视频编码有效
申请号: | 201410240167.5 | 申请日: | 2014-05-30 |
公开(公告)号: | CN105306954B | 公开(公告)日: | 2018-05-22 |
发明(设计)人: | 郑喆坤;焦李成;薛飞;孙天;乔伊果 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | H04N19/597 | 分类号: | H04N19/597;H04N19/147;H04N19/137;H04N19/186;H04N13/161 |
代理公司: | 西安吉盛专利代理有限责任公司 61108 | 代理人: | 张培勋 |
地址: | 710000 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于视频处理技术领域,具体公开了一种基于视差最小可察觉误差模型的感知立体视频编码方法,其实现步骤为:(1)视差估计;(2)基于视差的JND模型估计;(3)计算亮度,纹理和时间加权JND模型;(4)利用非线性加性模型将基于视差的JND模型和空域‑时域JND模型结合,得到基于视差的双目立体JND模型;(5)将基于视差的双目立体JND模型用于立体残差预处理器,进行残差重置。本发明可有效的消除时间、空间以及双目立体视频的视间冗余,并且不管是亮度、纹理区域还是物体边缘的信息,都保持着十分自然的视觉效果。因此,本发明能在不影响立体视觉感知质量的前提下,大幅度的降低了立体视频码率。 | ||
搜索关键词: | 一种 基于 视差 最小 可察觉 误差 模型 感知 立体 视频 编码 | ||
【主权项】:
1.一种基于视差最小可察觉误差模型的感知立体视频编码的方法,其特征在于:基于左、右视点的视间感知冗余,包括如下步骤:(1)视差估计:1a)分别读入双目立体视频左、右视点对应的每一帧图像IiL 和IiR ,并采用基于均值漂移彩色分割的方法对其进行分割预处理,得到左眼图像I'iL 和右眼图像I'iR ;1b)对I'iL 和I'iR 进行立体匹配,得到左、右视点间的视差d(x,y);(2)基于视差的JND模型估计:根据由输入视频序列得到的视差序列信息和人类视觉灵敏度之间的关系,分别计算输入的每一帧视频图像在各个像素点的视差JND阈值JNDDIS (x,y):JNDDIS (x,y)=ψ·e-d(x,y) +φψ=17,φ=3;φ是调节参数;(3)计算亮度,纹理和时间加权JND模型:3a)分别计算左、右视点在各个像素点的亮度JND阈值JNDL (x,y),它是由亮度掩蔽效应和背景亮度对比度决定的;3b)分别计算左、右视点在各个像素点的纹理JND阈值JNDT (x,y),它和纹理掩蔽效应以及图像边缘结构紧密相关,并利用非线性加性模型将其和JNDL (x,y)结合构成空域JND模型JNDS (x,y):非线性加性模型:JNDS =JNDL +JNDT -φ·min{JNDL ,JNDT };3c)分别计算左、右视点在各个像素点的时间加权JND阈值JNDTEM (x,y),它由根据视频序列帧间亮度差异所得到的时间掩蔽效应决定,并将其和JNDS (x,y)相融合得到空域-时域JND模型JNDST (x,y):加权模型:JNDST =JNDS ·JNDTEM ;(4)利用非线性加性模型将基于视差的JND模型和空域-时域JND模型JNDST (x,y)结合,得到基于视差的双目立体JND模型JNDSTEREO (x,y):JNDSTEREO (x,y)=JNDST +JNDDIS -θ·min{JNDST ,JNDDIS }(5)将基于视差的双目立体JND模型JNDSTEREO (x,y)用于立体残差预处理器:5a)分别计算出左、右视点每个B×B块的平均JND阈值平方和 B根据不同的块大小取不同的值: P JND S T E R E O 2 = 1 B 2 Σ y = 0 B - 1 Σ x = 0 B - 1 ( JND S T E R E O ( x , y ) ) 2 ]]> 5b)分别计算出左、右视点每个B×B块的平均残差 R b ‾ = 1 B 2 Σ y = 0 B - 1 Σ x = 0 B - 1 (
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410240167.5/,转载请声明来源钻瓜专利网。