[发明专利]一种集成成像快速编码方法有效
申请号: | 201910668052.9 | 申请日: | 2019-07-23 |
公开(公告)号: | CN110460842B | 公开(公告)日: | 2022-02-08 |
发明(设计)人: | 石雅南;雷建军;金鹏;张凯明;刘晓寰;张宗千 | 申请(专利权)人: | 天津大学 |
主分类号: | H04N19/103 | 分类号: | H04N19/103;H04N19/176;H04N19/597 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李林娟 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 集成 成像 快速 编码 方法 | ||
本发明公开了一种集成成像快速编码方法,包括:将由相机阵列采集到的集成成像数据格式转换为YUV格式;根据时域特性,利用前一帧对应位置最大编码块的最优编码深度,限定当前编码块的深度范围;在编码当前CU时,借鉴周围已编码块的模式信息,缩减候选模式列表,降低算法复杂度;同时,利用集成成像三维数据的空间相关性,提前判断RDOQ过程的最佳预测模式。
技术领域
本发明涉及集成成像编码领域,尤其涉及一种集成成像快速编码方法。
背景技术
集成成像作为真三维显示技术之一,近年来受到了广泛的关注,成为当前的研究热点。由于集成成像显示无需其他设备进行辅助,且视点连续,具有平滑运动视差等,具有比传统3D显示技术更多的优势。然而,集成成像立体元图像信息量远大于普通2D图像,为满足对集成成像三维数据存储和传输的要求,需要对其进行有效压缩。考虑到集成成像数据在水平和垂直方向同时存在相关性,利用HEVC(High Efficiency Video Coding,高效视频编码)的多视点扩展编码平台MV-HEVC(Multiview High Efficiency Video Coding,多视点高效视频编码),消除冗余信息,能够实现对集成成像数据的有效压缩。同时,集成成像编码的复杂度远远大于传统视频编码方法。因此,研究集成成像三维数据快速编码方案,降低计算复杂度,对于3D技术的发展具有重要意义。
目前对集成成像数据压缩编码的研究主要有两种。一种方法是将集成成像数据视作一幅静止且具有周期性重复纹理特性的二维图像,采用图像压缩标准或视频编码标准的编码方法,直接对集成成像数据进行压缩。另一种方法是将集成成像数据组织为子图像阵列,阵列中的每幅图像都看作一个视点,利用多视点视频编码标准对其进行编码。使用集成成像技术进行采集时,每个微透镜都能采集到一幅普通2D图像,称为立体元图像;整个微透镜阵列采集到的图像就是立体元图像阵列。
由于集成成像数据在水平和垂直方向同时存在相关性,所以利用多视点视频编码标准对集成成像数据进行压缩编码具有更高的效率,据此,研究基于MV-HEVC的快速算法。Li等人提出一种针对全光图像和视频的压缩编码方案,通过将HEVC中的帧间预测扩展到帧内预测以实现对集成成像数据更好的压缩。Perra和Assuncao提出将立体元图像阵列分成多个块,并将所有这些块按顺序组织成一个序列,然后使用HEVC帧间预测、利用内容相关性对其进行压缩编码。Gao等人针对4K视频提出了一种快速帧内预测模式决策算法,针对不同的预测单元尺寸使用不同的算法,对于尺寸为64×64的PU(Prediction Unit,预测单元),由于纹理简单,通过选择直流预测模式作为最佳预测模式来优化算法,其他大小的PU仍进行模式遍历过程。Wang等人设计了一种基于编码图像时空特性的算法。首先,基于块的纹理特征和运动信息提前终止CU(Coding Unit,编码单元)划分;然后,基于相邻编码块的运动矢量,设计了参考帧快速选择策略。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
现有技术缺乏对编码深度和编码模式的综合考虑和分析;现有的快速编码算法更多的是对自然图像和视频进行压缩编码,对集成成像这种维度高、冗余量大的数据的快速编码算法比较紧缺。
发明内容
本发明提供了一种集成成像快速编码方法,本发明基于集成成像内容的时空相关性,节省了编码时间,详见下文描述:
一种集成成像快速编码方法,所述方法包括以下步骤:
将由相机阵列采集到的集成成像数据转换为YUV格式;
根据时域特性,利用前一帧对应位置最大编码块的最优编码深度,限定当前编码块的深度范围;
在编码当前CU时,借鉴周围已编码块的模式信息,缩减候选模式列表,降低算法复杂度;
利用集成成像三维数据的空间相关性,提前判断RDOQ过程的最佳模式。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910668052.9/2.html,转载请声明来源钻瓜专利网。