[发明专利]用于对视频数据进行熵编码和熵解码的方法和设备有效
申请号: | 201510084684.2 | 申请日: | 2008-04-22 |
公开(公告)号: | CN104618730B | 公开(公告)日: | 2018-06-08 |
发明(设计)人: | 李英烈;金旲衍 | 申请(专利权)人: | 三星电子株式会社;世宗大学校产学协力团 |
主分类号: | H04N19/61 | 分类号: | H04N19/61;H04N19/19 |
代理公司: | 北京铭硕知识产权代理有限公司 11286 | 代理人: | 王艳娇;郭鸿禧 |
地址: | 韩国京畿*** | 国省代码: | 韩国;KR |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 二进制化 对视频数据 熵编码 方法和设备 熵解码 频域 二进制 视频数据 算数编码 压缩效率 块变换 自适应 | ||
提供了一种对视频数据进行熵编码/熵解码的方法和设备。对视频数据进行熵编码的方法包括:使用不同的二进制化方法对通过将当前块的残余块变换为频域而产生的频域的系数进行二进制化,对二进制化的系数执行二进制算数编码。通过这种方法,基于系数的频率是高还是低对系数进行自适应二进制化,从而提高视频数据的压缩效率。
本申请是向中国知识产权局提交的申请日为2008年4月22日的标题为“用于对视频数据进行熵编码和熵解码的方法和设备”的第200880020191.0号申请的分案申请。
技术领域
本发明总体涉及一种用于对视频数据进行熵编码/熵解码的方法和设备,更为具体地讲,涉及一种通过有效地二进制化当前块的残余块的离散余弦变换(DCT)系数来对视频数据进行熵编码/熵解码的方法和设备。
背景技术
在视频压缩标准(诸如,运动图像专家组(MPEG)-1、MPEG-2和H.264/MPEG-4先进视频编码(AVC))中,图像被分割为视频处理的预定单位(例如,宏块)以进行视频编码。然后,使用帧间预测或帧内预测来对每个宏块进行编码。然后,基于编码的宏块的数据大小和编码的宏块与初始宏块之间的失真程度来选择最优编码模式,并以选择的编码模式对宏块进行编码,该过程将参照图1进行更详细的描述。
图1是根据现有技术的视频编码器100的框图。
参照图1,运动补偿单元104或帧内预测单元106以块为单位执行帧间预测或帧内预测。运动补偿单元104通过搜索存储在帧存储器120中的参考图像来基于运动估计单元102估计的当前块的运动矢量,执行对当前块的帧间预测。帧内预测单元106使用包括在当前图像的先前编码的区域中的像素执行对当前块的帧内预测。
从初始块减去预测块,该预测块是作为预测结果而产生的当前块的预测值,从而产生残余块。产生的残余块被变换单元108变换为频域。变换单元108还执行离散余弦变换(DCT),从而产生残余块在频域中的系数,即,DCT系数。量化单元110对DCT系数进行量化。量化的系数被熵编码单元112熵编码,并被插入到比特流。
被量化单元110量化的系数被逆量化单元114逆量化,逆变换单元116对逆量化的系数执行离散余弦逆变换(IDCT)。将由IDCT重构的残余块与预测块相加,从而重构初始块。
重构的初始块被滤波单元118去块滤波,然后被存储到帧存储器,以用于其它块的帧间预测或帧内预测。
在H.264/AVC编码中,使用上下文自适应可变长度编码(CAVLC)或上下文自适应二进制算数编码(CABAC)执行熵编码。通过将不同的熵编码方法应用到不同的语法元素来执行熵编码。
在各种语法元素中,DCT系数通过运行-级别编码(run-level coding)被CAVLC编码。具有“0”值的DCT系数被称为“运行(run)”,具有非“0”值的DCT系数被称为“级别(level)”。将DCT系数分别二进制化为“运行”和“级别”,使用上下文模型对通过二进制化产生的二进制串(bin string)进行算数编码。
使用级联的一元/k阶指数Golomb二进制化将具有非“0”值的DCT系数(即,“级别”)二进制化为可变长度码,然后,对通过二进制化产生的二进制串进行算数编码,该过程将参照图2进行详细描述。
参照图2,使用二进制化方法对级别进行二进制化,该二进制化方法是具有最大码值(cMax)“14”的截断(truncated)一元二进制化与0阶指数Golomb二进制化的组合。
仅使用截断一元二进制化对具有小于等于14的值(abs_level)的级数进行二进制化,使用截断一元二进制化和指数Golomb二进制化的组合对具有大于14的值的级数进行二进制化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三星电子株式会社;世宗大学校产学协力团,未经三星电子株式会社;世宗大学校产学协力团许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510084684.2/2.html,转载请声明来源钻瓜专利网。