[发明专利]一种基于DOF的恰可察觉误差模型的感知立体视频编码方法在审
申请号: | 201410775784.5 | 申请日: | 2014-12-15 |
公开(公告)号: | CN104469386A | 公开(公告)日: | 2015-03-25 |
发明(设计)人: | 郑喆坤;薛飞;刘红民;崔玉;金重圭;尹仁龙;权炳贤 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | H04N19/597 | 分类号: | H04N19/597;H04N19/117;H04N19/147;H04N19/124 |
代理公司: | 西安吉盛专利代理有限责任公司 61108 | 代理人: | 张恒阳 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于视频处理技术领域,具体公开了一种基于DOF的恰可察觉误差模型的感知立体视频编码方法,其实现步骤为:(1)计算基于DOF和视差的亮度JND模型;(2)计算基于视差的纹理JND模型;(3)根据非线性加和模型取得本发明所提出的基于DOF的JND模型DJND(x,y);(4)将基于DOF的JND模型通过重置量化参数用于立体编码。本发明可有效的消除时间、空间以及视间冗余,并且成功地提高了S3D视频图像质量和视觉舒适,使纹理和边缘区域都保持着十分舒适的视觉效果。本发明能在改善和保持立体视觉感知质量的前提下,大幅度的降低了立体视频码率。 | ||
搜索关键词: | 一种 基于 dof 可察觉 误差 模型 感知 立体 视频 编码 方法 | ||
【主权项】:
一种基于DOF的恰可察觉误差模型的感知立体视频编码方法,其特征在于:包括如下步骤:(1)计算基于DOF和视差的亮度JND模型:1a)计算原始亮度JND模型LJND(x,y);1b)根据视差信息求得高斯低通滤波强度ε(x,y);1c)对每个块进行高斯低通滤波,得到滤波的JND模型FLJND(x,y):![]()
![]()
其中,B是以像素l为中心的5*5的块,||·||是欧氏距离,ε(x,y)是滤波强度;1d)将块平均深度值
融合到滤波后的亮度JND模型FLJND(x,y),得到基于DOF和视差的亮度JND模型DLJND(x,y):![]()
其中,
(2)计算基于视差的纹理JND模型:2a)计算原始纹理JND模型TJND(x,y);2b)利用块平均深度值
处理纹理JND模型TJND(x,y)来区分前景和背景,得到基于视差的纹理JND模型;![]()
3)根据非线性加和模型取得基于DOF的JND模型DJND(x,y):DJND=DLJND+DTJND‑φ·min{DLJND,DTJND},其中,DLJND是基于视差和DOF的亮度JND模型,DTJND是基于视差的纹理JND模型,φ=0.3;(4)将基于DOF的JND模型通过重置量化参数用于立体编码:4a)根据所提出的基于DOF的JND阈值DJND(x,y)得到用于调整量化参数的调节参数ν:![]()
其中,DJNDi是第i个宏块的平均JND阈值,
是每一帧的平均JNG阈值,α=0.2,β=1.8,μ=4;4b)用调节参数ν调整每个宏块的量化参数:QPi=ν·QPo,4c)根据率失真最优化原理和重置后的量化参数QPi,计算出优化参数λ,它用于平衡码率和失真之间的关系:min(J)=min(D+λ·R),![]()
![]()
其中,D表示失真信息,R表示码率,λ是拉格朗日乘子,J是编码损耗。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410775784.5/,转载请声明来源钻瓜专利网。