[发明专利]一种邻帧预测深度相似性的视频编码方法在审
申请号: | 201410811013.7 | 申请日: | 2014-12-23 |
公开(公告)号: | CN104519362A | 公开(公告)日: | 2015-04-15 |
发明(设计)人: | 桑楠;刘虹呈;丁先树;饶云波;雷航;周波;将自国 | 申请(专利权)人: | 电子科技大学 |
主分类号: | H04N19/503 | 分类号: | H04N19/503;H04N19/105;H04N19/124 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 张杨 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 预测 深度 相似性 视频 编码 方法 | ||
技术领域
本发明涉及计算机视觉和信号处理技术,研究偏重于视频帧间编码算法优化和视频图像相关处理。
背景技术
HEVC是ITU-T视频编码专家组和ISO动态图像专家组组织联合成立jCT-VC(Joint Collaborative Team-Video Coding)组织制定的最新一代视频编码标准。
本发明针对HEVC中的帧间编码的预测帧的构造过程中的预测算法进行了整体性优化。HEVC的帧间编码过程涉及面广,流程相对复杂,当今的研究趋势主要趋向于在流程中某一个细节,用数学方法减少算法的冗余执行,达到节省编码时间的目的。在这些已经公开的相关技术和文献内容中,算法的优化主要有两种途径:削减原有编码过程以及大幅改变原编码过程。这两种主要途径在实际应用中很难被采纳,削减原有编码过程以达到编码时间的缩短,这违背了HEVC制定的初衷,这种类型的优化往往对某些特定类型的视频序列可以起到极好的优化效果,但却忽略了由被削减的编码过程进行判断的特殊情况,而研究人员往往会回避这些特殊情况,以偏概全;而另一个途径,则是运用数学理论自制一套全新的预测算法,大幅度甚至整体地替换掉原有的编码预测机制,不仅理解不易,其真实的算法性能指标,与经过大量实验而制定的HEVC标准相比,是否真的更好也有待更多的实验来检验。
发明内容
本发明在原有帧间预测视频编码方法的基础上,利用相邻帧之间的纹理特征的相关性,优化每一帧预测的划分过程,另外通过控制量化参数(QP)和参考帧选择过程(RFS)来保证预测的准确性,在缩减编码时间与保证预测精准中达到一个平衡,真正从整体上优化了整个帧间编码过程。
在H.265的编码结构设计中,划分,预测,变换三个主要的编码过程拥有各自独立的编码结构,分别是Coding Unit(CU),Prediction Unit(PU)和Transform Unit(TU)。他们都是帧的编码结构,编码结构是面积小于图像帧的矩形像素块,为了保证网络传输的及时性,编码和传输都是以编码结构为单位,而不是以帧为单位。
本发明一种邻帧预测深度相似性的视频编码方法,该方法包括:
步骤1:选取待编码的视频,将视频中每相邻的8个视频帧划分为一组(GOP,Group of Pictures),选择该组中一帧进行编码,称其为当前帧;
步骤2:从该组中已经编码的视频帧中选择一帧为当前帧的参考帧,若当前帧为该组中第一帧则选择前一组的最后一帧为参考帧;
步骤3:判断选择出的参考帧与当前帧是否跨越视频场景;若跨越视频场景,则对当前帧进行编码时其起始深度为0,最大深度不超过根据需要的编译精度设定的最大深度,计算其量化参数,则跳转到步骤6;若未跨越视频场景,则转到步骤4;
步骤4:计算出当前帧的量化参数,将当前帧的量化参数与参考帧的量化参数进行比较,若当前帧的量化参数大于参考帧的量化参数,将参考帧的起始深度减1作为当前帧的起始深度;否则,将参考帧的起始划分深度作为当前帧的起始深度;
步骤5:计算参考帧的平均深度,若参考帧的平均深度接近其起始深度,则限定当前帧的最大深度不超过参考帧的最大深度;若参考帧的平均深度更接近最大深度,则当前帧的最大深度不超过设定的最大深度;
步骤6:将当前帧及其起始深度、最大深度、平均深度、量化参数存入参考帧候选列表,作为后续视频帧编码的候选参考帧;
步骤7:根据编码配置信息,依次对所有的视频帧进行编码,完成整个视频的编码。
进一步地,对所述步骤1划分的视频组中的8个视频帧按照视频顺序进行0~7编号,选择其中视频帧进行编码的顺序为0,3,5,2,6,4,7,1。
进一步地,所述步骤2中选择该组候选参考帧中与当前帧距离最近的一帧为当前帧的参考帧。
进一步地,所述步骤3中判断参考帧与当前帧是否跨越视频场景的方法为:分别计算出当前帧和参考帧的起始深度、平均深度、最大深度的差值的绝对值;分别设定三个绝对值的加权系数分别为7、10、3,计算其加权之和T,若T>25,并且当前帧与参考帧的距离大于等于4,则认为参考帧与当前帧跨越了视频场景,否则未跨越视频场景。
进一步地,步骤7的具体步骤如下:
步骤7-1:根据步骤1到步骤6完成CU的划分,经过后续的变换、量化、变换编码、反变换、反量化等过程完成一个CU的编码;
步骤7-2:遍历当前帧的所有CU,重复执行步骤7-1,完成一个帧的完整编码过程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学;,未经电子科技大学;许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410811013.7/2.html,转载请声明来源钻瓜专利网。
- 上一篇:推送方法、推送装置和服务器
- 下一篇:产生彩色图像和深度图像的方法和设备