[发明专利]基于卷积神经网络的宽基线多视点视频合成方法有效
申请号: | 201910499490.7 | 申请日: | 2019-06-11 |
公开(公告)号: | CN110113593B | 公开(公告)日: | 2020-11-06 |
发明(设计)人: | 卢少平;王榕 | 申请(专利权)人: | 南开大学 |
主分类号: | H04N13/161 | 分类号: | H04N13/161;G06N3/04;G06N3/08 |
代理公司: | 天津耀达律师事务所 12223 | 代理人: | 侯力 |
地址: | 300071*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卷积 神经网络 基线 视点 视频 合成 方法 | ||
1.一种基于卷积神经网络的宽基线多视点视频合成方法,其特征在于利用神经网络同时考虑参考视点深度图和纹理图的高维向量预测自适应卷积核,所述方法包括如下步骤:
a.输入参考视点的深度图和纹理图:从视频中得到两个参考视点同一时刻对应的两张深度图和两张纹理图,并将该4帧图像导入卷积神经网络模型;
b.特征提取和融合:用卷积神经网络模型的两个分支即深度分支和纹理分支分别对输入的深度图和纹理图进行处理,并在向后传播的过程中将深度分支输出的深度特征向量融合到纹理分支输出的纹理特征向量;
c.可分离卷积核预测:用一组子网络根据融合了纹理和深度信息的特征向量为每个输出像素预测一组空间自适应的卷积核;
d.合成新视图:将得到的卷积核作用到参考视点的输入纹理图的对应区域,生成目标图像的像素值。
2.根据权利要求1所述的基于卷积神经网络的宽基线多视点视频合成方法,其特征在于:步骤b中所述将深度分支输出的深度特征向量融合到纹理分支输出的纹理特征向量的方法是,通过元素相加的方法将深度分支输出的深度特征向量融合到纹理特征向量中。
3.根据权利要求1所述的基于卷积神经网络的宽基线多视点视频合成方法,其特征在于:步骤c中所述卷积核预测方法是,卷积神经网络为每个输出像素预测4个空间自适应的1D卷积核,并用一对可分离的1D卷积核估计一个2D核。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910499490.7/1.html,转载请声明来源钻瓜专利网。