[发明专利]用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备有效
申请号: | 201480032475.7 | 申请日: | 2014-04-07 |
公开(公告)号: | CN105264890B | 公开(公告)日: | 2019-05-31 |
发明(设计)人: | 朴慜祐;尹载元;李振荣;崔秉斗;魏浩千;曺容振 | 申请(专利权)人: | 三星电子株式会社 |
主分类号: | H04N19/105 | 分类号: | H04N19/105;H04N19/186 |
代理公司: | 北京铭硕知识产权代理有限公司 11286 | 代理人: | 韩明星;苏银虹 |
地址: | 韩国京畿*** | 国省代码: | 韩国;KR |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 补偿 亮度 视频 编码 方法 设备 以及 解码 | ||
一种根据本发明的实施例的层间视频解码方法,包括如下步骤:基于从第一层的比特流获得的编码信息对第一层中的图像进行恢复;使用第一层中的恢复图像之中的与在第二层中正被恢复的当前块相应的第一层中的参考块并使用从第二层的比特流获得的层间预测信息,对第二层中的已被确定为处于预定分区模式和预测模式的当前块进行恢复;在第二层中的当前块处于第二层中的当前块不被划分的分区模式时,确定是否对第二层中的当前块进行亮度补偿;根据是否进行亮度补偿来对第二层中的当前块的亮度进行补偿,并对包括亮度已被补偿的第二层中的当前块的第二层中的图像进行恢复。
技术领域
本发明涉及层间视频编码和解码方法,更具体地说,涉及一种补偿层间图像之间的亮度差的方法。
背景技术
随着用于再现和存储高分辨率或高质量视频内容的硬件正被开发和提供,对于用于有效地对高分辨率或高质量视频内容进行编码或解码的视频编解码器的需求正在增加。根据传统的视频编解码器,基于具有预定尺寸的编码单元,根据受限的编码方法来对视频进行编码。
空间域的图像数据经由频率变换被变换为频域的系数。根据视频编解码器,将图像划分为具有预定尺寸的块,对每个块执行离散余弦变换(DCT),并在块单元中对频率系数进行编码,以进行频率变换的快速计算。与空间域的图像数据相比,频域的系数容易被压缩。具体地,由于根据经由视频编解码器的帧间预测或帧内预测的预测误差来表示空间域的图像像素值,因此当对预测误差执行频率变换时,大量数据可被变换为0。根据视频编解码器,可通过使用小量数据来代替连续并重复产生的数据,从而减少数据量。
多层视频编解码器对第一层视频和各种第二层视频进行编码和解码以去除第一层视频和第二层视频的时间和空间冗余以及层之间的冗余,从而减少第一层视频和第二层视频的数据量。
发明内容
技术问题
如果在每个视点的视频之间亮度不相同,则由于层间预测误差量进一步增加,因此编码效率会降低。因此,考虑到视点之间的亮度不一致,层间视频编码设备10的亮度补偿确定器14可对每个视点的视频的亮度差进行补偿和编码。例如,可对由第一层编码器12编码的第一视点图像和由第二层编码器16编码的第二视点图像之间的亮度差进行编码。由于第二视点图像相对于第一视点图像的亮度差被编码,因此当第二层编码器16对第二视点视频进行编码时可对亮度进行补偿。然而,为了能够对亮度进行补偿而会增加复杂度。
技术方案
根据本公开的实施例,一种层间视频解码方法包括:基于从第一层比特流获得的编码信息对第一层图像进行重建;通过使用从第二层比特流获得的层间预测信息和第一层重建图像中的与在第二层中将被重建的当前块相应的第一层参考块,对被确定为预定分区模式和预测模式的第二层当前块进行重建;对处于第二层当前块不被划分的分区模式的第二层当前块确定是否执行亮度补偿;根据是否执行亮度补偿来对第二层当前块的亮度进行补偿,并对包括亮度被补偿的第二层当前块的第二层图像进行重建。
有益效果
根据本发明的实施例,多层图像的亮度补偿应用范围被适当地限制,从而保持编码效率并降低复杂度。
附图说明
从以下结合附图进行的对实施例的描述,这些和/或其它方面将变得明显并更易于理解,其中:
图1a是根据各种实施例的层间视频编码设备的框图。
图1b是根据各种实施例的层间视频编码方法的流程图。
图2a是根据各种实施例的层间视频解码设备的框图。
图2b是根据各种实施例的层间视频解码方法的流程图。
图3示出根据实施例的层间预测结构。
图4是根据实施例的层间视频解码设备执行亮度补偿的方法的流程图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三星电子株式会社,未经三星电子株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201480032475.7/2.html,转载请声明来源钻瓜专利网。