[发明专利]用于视频译码的模板匹配有效
申请号: | 201080030071.6 | 申请日: | 2010-06-29 |
公开(公告)号: | CN102474622A | 公开(公告)日: | 2012-05-23 |
发明(设计)人: | 马尔塔·卡切维奇;钱威俊 | 申请(专利权)人: | 高通股份有限公司 |
主分类号: | H04N7/36 | 分类号: | H04N7/36 |
代理公司: | 北京律盟知识产权代理有限责任公司 11287 | 代理人: | 宋献涛 |
地址: | 美国加利*** | 国省代码: | 美国;US |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 视频 译码 模板 匹配 | ||
1.一种用于译码当前视频单元的当前视频块的视频译码方法,所述方法包含:
产生用于模板匹配预测性视频译码的假设集合,其中所述假设集合中的所述假设中的至少一些是基于来自第一预测性视频单元的至少一部分的第一预测性视频数据集合及基于来自第二预测性视频单元的至少一部分的第二预测性视频数据集合,且其中所述假设集合中的所述假设的每一者包含对应于相对于视频块位置而界定的模板形状的预测性视频数据;
从所述假设集合中选择所述假设中的一者;及
经由视频译码器使用由所述假设中的所述选定一者所识别的预测性视频数据来译码所述当前视频块。
2.根据权利要求1所述的视频译码方法,其中所述视频译码器包含视频编码器,其中所述方法进一步包含:
基于所述假设集合中的第一假设子集产生第一预测性视频数据集合;
基于所述假设集合中的第二假设子集产生第二预测性视频数据集合;
计算与编码所述当前视频块相关联的第一成本,其中计算所述第一成本包括确定在使用所述第一预测性视频数据集合编码后位的数目及所述当前视频块的质量级别;
计算与编码所述当前视频块相关联的第二成本,其中计算所述第二成本包括确定在使用所述第二预测性视频数据集合编码后位的数目及所述当前视频块的质量级别;
从所述第一成本及所述第二成本确定与编码所述当前视频块相关联的最低成本;及
设定语法元素以发信号通知解码器应使用所述第一假设子集还是所述第二假设子集。
3.根据权利要求1所述的视频译码方法,
其中所述视频译码器包含视频解码器,
其中所述方法进一步包含:
解码一个或一个以上语法元素,所述一个或一个以上语法元素识别在编码经编码的视频数据的过程中所使用的所述假设集合中的假设的数目;
从所述假设集合中识别假设子集,其中所述子集包括由所述一个或一个以上语法元素发信号通知的所述数目的假设;及
基于所述假设子集产生预测性视频数据集合,且
其中译码所述当前视频块进一步包含使用所述产生的预测性视频数据集合来解码所述经编码的视频数据。
4.根据权利要求1所述的视频译码方法,从所述假设集合中选择所述假设中的一者包含:
基于所述假设集合产生参考假设,其中所述参考假设包含所述假设集合中的多个假设的每一像素位置的像素值的平均值;
确定所述假设集合中的第一假设与所述参考假设之间的值的差是否大于阈值;及
如果所述第一假设与所述参考假设之间的值的所述差大于所述阈值,则从所述假设集合中移除所述第一假设。
5.根据权利要求1所述的视频译码方法,其中产生所述假设集合包含计算绝对差的加权总和,其中计算所述加权总和包括将与所述当前视频块相关联的模板分割成多个分区及将所述多个分区中的每一分区的所述绝对差的总和乘以随着考虑中的所述分区距所述当前视频块的距离增加而减小的值。
6.根据权利要求1所述的视频译码方法,其中产生所述假设集合包含:
计算模板偏差,其中计算包含计算相对于所述当前视频块而界定的模板的像素值与所述假设集合中的第一假设的像素值的平均差;及
将所述模板偏差应用于所述第一假设的所述像素值中的每一者与相对于所述当前视频块界定的所述模板的所述像素值中的每一者之间的差。
7.根据权利要求1所述的视频译码方法,其中所述当前视频块为明度视频块,其中所述明度视频块包括多个子块,且其中从所述假设集合中选择所述假设中的一者以译码所述当前视频块包含:
选择所述多个子块中的第一子块;
相对于所述第一子块的位置而界定模板形状;
计算第二子块的明度残余,其中所述第二子块的至少一部分位于所述模板形状的至少一部分中;
计算所述第二子块的像素值的运动补偿预测;及
基于所述明度残余及像素值的所述运动补偿预测而产生所述模板形状内的像素的预测性视频数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于高通股份有限公司,未经高通股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201080030071.6/1.html,转载请声明来源钻瓜专利网。