[发明专利]一种基于JND模型的视频编码方法有效
申请号: | 201910352686.3 | 申请日: | 2019-04-29 |
公开(公告)号: | CN110139112B | 公开(公告)日: | 2022-04-05 |
发明(设计)人: | 易清明;范文卉;石敏 | 申请(专利权)人: | 暨南大学 |
主分类号: | H04N19/85 | 分类号: | H04N19/85;H04N19/154;H04N19/625;H04N19/80 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 林梅繁 |
地址: | 510632 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 jnd 模型 视频 编码 方法 | ||
1.一种基于JND模型的视频编码方法,其特征在于,包括:
建立像素域JND模型,像素域JND模型使用非线性叠加模型,结合背景亮度自适应和纹理掩盖效应,得到像素域JND阈值;
利用像素域JND模型对原始视频进行预处理,去除视频已经存在的视觉冗余;
建立改进的DCT域JND模型,考虑人眼对阈值的影响,引入一个更符合人眼特性的时空域CSF函数,得到DCT域JND阈值;
基于改进的DCT域JND模型进行视频编码;
所述建立像素域JND模型,像素域JND模型使用非线性叠加模型,结合背景亮度自适应和纹理掩盖效应,得到像素域JND阈值;具体包括:
像素域JND模型采用非线性叠加模型,每个像素的空域JND模型作为非线性模型的一种近似,像素域JND阈值由式(1)表示:
JNDpixel(x,y)=Tl(x,y)+Tt(x,y)-Clt×min{Tl(x,y),Tt(x,y)} (1)
其中,Tl(x,y)表示背景亮度自适应阈值;Tt(x,y)表示纹理掩盖的基本阈值;Clt代表了两种效应之间的重叠部分,用来调整两个因素的叠加因素,取Clt=0.3;
Tl(x,y)由式(2)表示:
其中,表示平均背景亮度值;B(i,j)是加权低通滤波器;
Tt(x,y)的计算方法如式(3)所示:
Tt(x,y)=βGθ(x,y)Wθ(x,y) (3)
其中,β为控制常数,取值为0.117;Gθ(x,y)代表梯度,表示为像素点(x,y)四个方向梯度的加权平均最大值;
所述利用像素域JND模型对原始视频进行预处理,是采用如下公式对输入视频进行预处理:
其中,JNDpixel(x,y)为像素域JND阈值;为每个像素块的平均值,I(x,y)为像素点(x,y)处的像素值;
所述建立改进的DCT域JND模型,考虑人眼对阈值的影响,引入一个更符合人眼特性的时空域CSF函数,得到DCT域JND阈值,具体包括:
设t为视频序列中的帧索引,n为第t帧中的块索引,(i,j)为DCT系数索引,则相应的DCT域JND阈值表示为式(5):
JNDDCT(n,i,j,t)=T(n,i,j,t)×aLum(n,t)×aContra(n,i,j,t) (5)
其中,T(n,i,j,t)表示为时空域基本失真阈值,由CSF函数计算得到;aLum(n,t)表示为亮度掩盖因子;aContra(n,i,j,t)表示为对比度掩盖因子;
所述基于改进的DCT域JND模型进行视频编码,具体包括:
在量化之前,利用帧内和/或帧间预测得到对应的残差系数值;
对于变换跳过模式,利用亮度自适应掩盖模型计算阈值,然后通过残差系数值和阈值的比较,去掉人眼不能感知的视觉冗余;
对于变换不跳过模式,利用改进的DCT域JND模型对残差系数值进行滤波。
2.根据权利要求1所述的视频编码方法,其特征在于,利用改进的DCT域JND模型对残差系数值进行滤波具体为:使用改进的DCT域JND模型对阈值进行计算,将计算的阈值与对应的残差系数值进行比较,对于不大于阈值的残差系数值,其被人眼认为是不可见的,无法对重建图像的质量做出贡献,直接置为零舍弃;对高于阈值的残差系数,即使去掉人眼无法感知的部分,也能保持编码图像的质量,减掉阈值去掉人眼无法感知的部分。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于暨南大学,未经暨南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910352686.3/1.html,转载请声明来源钻瓜专利网。