[发明专利]一种多视点深度视频快速编码方法有效
申请号: | 201310225066.6 | 申请日: | 2013-06-05 |
公开(公告)号: | CN103338370A | 公开(公告)日: | 2013-10-02 |
发明(设计)人: | 彭宗举;王叶群;蒋刚毅;郁梅;陈芬 | 申请(专利权)人: | 宁波大学 |
主分类号: | H04N7/26 | 分类号: | H04N7/26;H04N7/32;H04N13/00 |
代理公司: | 宁波奥圣专利代理事务所(普通合伙) 33226 | 代理人: | 周珏 |
地址: | 315211 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种多视点深度视频快速编码方法,其通过提出一个宏块的编码模式复杂度因子,并根据该模式复杂度因子将宏块归分到简单模式区域或复杂模式区域,即将深度视频划分为简单模式区域和复杂模式区域,且针对不同的区域采用不同的快速编码模式选择策略,对简单模式区域中的宏块只选择简单的编码模式搜索,而复杂模式区域中的宏块则进行较复杂的搜索,从而避免了当前的编码帧编码过程中贡献很小但很费时的编码模式搜索,这样在保证虚拟视点绘制质量和不影响深度视频编码码率的前提下,能够有效地降低多视点深度视频编码的计算复杂度,节约多视点深度视频的编码时间。 | ||
搜索关键词: | 一种 视点 深度 视频 快速 编码 方法 | ||
【主权项】:
1.一种多视点深度视频快速编码方法,其特征在于具体包括以下步骤:①将多视点深度视频中当前待编码的视点定义为当前视点;②将当前视点中当前待编码的深度帧定义为当前编码帧;③如果当前编码帧为I帧,则对于当前编码帧中的每个宏块,搜索所有帧内预测模式,并根据率失真代价从所有帧内预测模式中选择率失真代价值最小的编码模式作为该宏块的最优编码模式,再利用当前编码帧中的每个宏块的最优编码模式对每个宏块进行编码,然后执行步骤⑩;如果当前编码帧为P帧,则对于当前编码帧中的每个宏块,搜索SKIP模式、Inter16×16模式、Inter16×8模式、Inter8×16模式、Inter8×8模式和所有帧内预测模式并根据率失真代价选择率失真代价值最小的编码模式作为该宏块的最优编码模式,再利用当前编码帧中的每个宏块的最优编码模式对每个宏块进行编码,然后执行步骤⑩;如果当前编码帧为B帧,则执行步骤④;④将当前编码帧中当前待编码的宏块定义为当前宏块;⑤假设当前宏块的坐标位置为(x,y),则将当前编码帧中坐标位置为(x-1,y)的宏块作为当前宏块的相邻左边宏块,并记为EA;将当前编码帧中坐标位置为(x,y-1)的宏块作为当前宏块的相邻上边宏块,并记为EB;将当前编码帧中坐标位置为(x+1,y-1)的宏块作为当前宏块的相邻右上边宏块,并记为EC;将当前编码帧中坐标位置为(x-1,y-1)的宏块作为当前宏块的相邻左上边宏块,并记为ED;将当前编码帧的参考帧列表中的第一帧时间参考帧中坐标位置为(x,y)的宏块作为当前宏块的对应宏块,并记为D;将当前编码帧的参考帧列表中的第一帧时间参考帧中坐标位置为(x-1,y)的宏块作为当前宏块的对应左边宏块,并记为DA;将当前编码帧的参考帧列表中的第一帧时间参考帧中坐标位置为(x,y-1)的宏块作为当前宏块的对应上边宏块,并记为DB;将当前编码帧的参考帧列表中的第一帧时间参考帧中坐标位置为(x+1,y-1)的宏块作为当前宏块的对应右上边宏块,并记为DC;将当前编码帧的参考帧列表中的第一帧时间参考帧中坐标位置为(x-1,y-1)的宏块作为当前宏块的对应左上边宏块,并记为DD;其中,
W表示当前编码帧的宽度,H表示当前编码帧的高度;⑥根据EA、EB、EC、ED、D、DA、DB、DC和DD的编码模式,计算当前宏块的编码模式复杂度因子,记为MMC,MMC = W Mode ( D ) , C ∈ R 1 0.6 × W Mode ( D ) + 0.2 × ( W Mode ( EA ) + W Mode ( DA ) ) , C ∈ R 2 0.5 × W Mode ( D ) + 0.15 × ( W Mode ( EB ) + W Mode ( DB ) ) + 0.1 × ( W Mode ( EC ) + W Mode ( DC ) ) , C ∈ R 3 0.5 × W Mode ( D ) + 0.1 × ( W Mode ( EA ) + W Mode ( DA ) + W Mode ( EB ) + W Mode ( DB ) ) , + 0.05 × ( W Mode ( ED ) + W Mode ( DD ) ) , C ∈ R 4 0.4 × W Mode ( D ) + 0.1 × ( W Mode ( EA ) + W Mode ( DA ) + W Mode ( EB ) + W Mode ( DB ) ) + 0.05 × ( W Mode ( EC ) + W Mode ( DC ) + W Mode ( ED ) + W Mode ( DD ) ) , C ∈ R 5 ]]> 其中,C表示当前宏块,R1表示由当前编码帧中的第1个宏块构成的集合,R2表示由当前编码帧中的第一行宏块中除该行中的第1个宏块外的其余宏块构成的集合,R3表示由当前编码帧中的第一列宏块中除该列中的第1个宏块外的其余宏块构成的集合,R4表示由当前编码帧中的最后一列宏块中除该列中的第1个宏块外的其余宏块构成的集合,R5表示由当前编码帧中除R1、R2、R3和R4中包含的宏块外的其余宏块构成的集合,Mode(D)表示D的编码模式,WMode(D)表示Mode(D)的模式因子,Mode(DA)表示DA的编码模式,WMode(DA)表示Mode(DA)的模式因子,Mode(DB)表示DB的编码模式,WMode(DB)表示Mode(DB)的模式因子,Mode(DC)表示DC的编码模式,WMode(DC)表示Mode(DC)的模式因子,Mode(DD)表示DD的编码模式,WMode(DD)表示Mode(DD)的模式因子,Mode(EA)表示EA的编码模式,WMode(EA)表示Mode(EA)的模式因子,Mode(EB)表示EB的编码模式,WMode(EB)表示Mode(EB)的模式因子,Mode(EC)表示EC的编码模式,WMode(EC)表示Mode(EC)的模式因子,Mode(ED)表示ED的编码模式,WMode(ED)表示Mode(ED)的模式因子,当编码模式为SKIP或Inter16×16模式时,编码模式的模式因子的取值为1;当编码模式为Inter8×16或Inter16×8模式时,编码模式的模式因子的取值为2;当编码模式为Inter8×8模式时,编码模式的模式因子的取值为4;当编码模式为Intra模式时,编码模式的模式因子的取值为5;⑦根据当前宏块的编码模式复杂度因子MMC,在编码前将当前宏块归分到简单模式区域或者复杂模式区域,如果MMC小于或等于设定的阈值T,则将当前宏块归分到简单模式区域,如果MMC大于设定的阈值T,则将当前宏块归分到复杂模式区域;⑧对属于简单模式区域的当前宏块或属于复杂模式区域的当前宏块进行最优编码模式快速选择,然后利用最优编码模式对当前宏块进行编码,具体过程为:⑧-1、当当前宏块属于简单模式区域时,判断D、EA和EB中是否存在至少两个宏块的编码模式为SKIP模式,如果是,则搜索SKIP模式和所有帧内预测模式,并根据率失真代价从SKIP模式和所有帧内预测模式中选择率失真代价值最小的编码模式作为当前宏块的最优编码模式,然后执行步骤⑧-4,否则,搜索SKIP模式、Inter16×16模式和所有帧内预测模式,并根据率失真代价从SKIP模式、Inter16×16模式和所有帧内预测模式中选择率失真代价值最小的编码模式作为当前宏块的最优编码模式,然后执行步骤⑧-4;⑧-2、当当前宏块属于复杂模式区域时,判断D、EA和EB的编码模式是否均为SKIP模式,如果是,则搜索SKIP模式和所有帧内预测模式,并根据率失真代价从SKIP模式和所有帧内预测模式中选择率失真代价值最小的编码模式作为当前宏块的最优编码模式,然后执行步骤⑧-4,否则,继续执行步骤⑧-3;⑧-3、判断D、EA和EB中是否存在两个宏块的编码模式为SKIP模式,如果是,则搜索SKIP模式、Inter16×16模式和所有帧内预测模式,并根据率失真代价从SKIP模式、Inter16×16模式和所有帧内预测模式中选择率失真代价值最小的编码模式作为当前宏块的最优编码模式,然后执行步骤⑧-4,否则,全遍历搜索所有编码模式,并根据率失真代价从所有编码模式中选择率失真代价值最小的编码模式作为当前宏块的最优编码模式,然后执行步骤⑧-4;⑧-4、利用当前宏块的最优编码模式对当前宏块进行编码;⑨将当前编码帧中下一个待编码的宏块作为当前宏块,然后返回步骤⑤继续执行,直至当前编码帧中的所有宏块均编码完毕;⑩将当前视点中下一帧待编码的深度帧作为当前编码帧,然后返回步骤③继续执行,直至当前视点中的所有深度帧均处理完毕;
将多视点深度视频中下一个待编码的视点作为当前视点,然后返回步骤②继续执行,直至多视点深度视频中的所有视点均处理完毕,完成多视点深度视频的编码。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310225066.6/,转载请声明来源钻瓜专利网。