[发明专利]一种基于DOF的恰可察觉误差模型的感知立体视频编码方法在审

专利信息
申请号: 201410775784.5 申请日: 2014-12-15
公开(公告)号: CN104469386A 公开(公告)日: 2015-03-25
发明(设计)人: 郑喆坤;薛飞;刘红民;崔玉;金重圭;尹仁龙;权炳贤 申请(专利权)人: 西安电子科技大学
主分类号: H04N19/597 分类号: H04N19/597;H04N19/117;H04N19/147;H04N19/124
代理公司: 西安吉盛专利代理有限责任公司 61108 代理人: 张恒阳
地址: 710071 陕西省*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 dof 可察觉 误差 模型 感知 立体 视频 编码 方法
【权利要求书】:

1.一种基于DOF的恰可察觉误差模型的感知立体视频编码方法,其特征在于:包括如下步骤:

(1)计算基于DOF和视差的亮度JND模型:

1a)计算原始亮度JND模型LJND(x,y);

1b)根据视差信息求得高斯低通滤波强度ε(x,y);

1c)对每个块进行高斯低通滤波,得到滤波的JND模型FLJND(x,y):

FLJND(x,y)=1G·{ΣnBe[(-||l-n||22·ϵ(x,y)2)·LJND(x,y)]},]]>

G=ΣnBe-||l-n||22·ϵ(x,y)2,]]>

其中,B是以像素l为中心的5*5的块,||·||是欧氏距离,ε(x,y)是滤波强度;

1d)将块平均深度值融合到滤波后的亮度JND模型FLJND(x,y),得到基于DOF和视差的亮度JND模型DLJND(x,y):

DLJMD=e-2·Dep(x,y)·FLJND(x,y)+]]>

其中,

(2)计算基于视差的纹理JND模型:

2a)计算原始纹理JND模型TJND(x,y);

2b)利用块平均深度值处理纹理JND模型TJND(x,y)来区分前景和背景,得到基于视差的纹理JND模型;

DTJND=e-2·Dep(x,y)·TJND(x,y),]]>

3)根据非线性加和模型取得基于DOF的JND模型DJND(x,y):

DJND=DLJND+DTJND-φ·min{DLJND,DTJND},

其中,DLJND是基于视差和DOF的亮度JND模型,DTJND是基于视差的纹理JND模型,φ=0.3;

(4)将基于DOF的JND模型通过重置量化参数用于立体编码:

4a)根据所提出的基于DOF的JND阈值DJND(x,y)得到用于调整量化参数的调节参数ν:

v=α+β·(1+e-μ·DJNDi-DJNDDJND)-1,]]>

其中,DJNDi是第i个宏块的平均JND阈值,是每一帧的平均JNG阈值,α=0.2,β=1.8,μ=4;

4b)用调节参数ν调整每个宏块的量化参数:

QPi=ν·QPo

4c)根据率失真最优化原理和重置后的量化参数QPi,计算出优化参数λ,它用于平衡码率和失真之间的关系:

min(J)=min(D+λ·R),

JR=DR+λ=0,]]>

λ=0.85·2(QPi-12)/3.]]>

其中,D表示失真信息,R表示码率,λ是拉格朗日乘子,J是编码损耗。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201410775784.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top