[发明专利]基于卷积神经网络的宽基线多视点视频合成方法有效
申请号: | 201910499490.7 | 申请日: | 2019-06-11 |
公开(公告)号: | CN110113593B | 公开(公告)日: | 2020-11-06 |
发明(设计)人: | 卢少平;王榕 | 申请(专利权)人: | 南开大学 |
主分类号: | H04N13/161 | 分类号: | H04N13/161;G06N3/04;G06N3/08 |
代理公司: | 天津耀达律师事务所 12223 | 代理人: | 侯力 |
地址: | 300071*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种基于卷积神经网络的宽基线多视点视频合成方法。该方法的目的是提取周围视点纹理图和深度图的特征并通过预测可分离的空间自适应卷积核进行多视点视频内容的合成。该方法设计了一种新的卷积神经网络模型。该模型用两个分支完成对深度图和纹理图特征的提取和融合,用一组独立的子网络进行可分离的空间自适应卷积核预测,最后将得到的卷积核与输入的纹理图作局部卷积完成视点合成。该方法合理利用深度信息引导自适应卷积核的预测,在宽基线和复杂场景下能够保持良好的效果。 | ||
搜索关键词: | 基于 卷积 神经网络 基线 视点 视频 合成 方法 | ||
【主权项】:
1.一种基于卷积神经网络的宽基线多视点视频合成方法,其特征在于利用神经网络同时考虑参考视点深度图和纹理图的高维向量预测自适应卷积核,所述方法包括如下步骤:a.输入参考视点的深度图和纹理图:从视频中得到两个参考视点同一时刻对应的深度图和纹理图的4帧图像导入卷积神经网络模型;b.特征提取和融合:用卷积神经网络模型的两个分支即深度分支和纹理分支分别对输入的深度图和纹理图进行处理,并在向后传播的过程中将深度分支的特征向量融合到纹理分支;c.可分离卷积核预测:用一组子网络根据融合了纹理和深度信息的特征向量为每个输出像素预测一组空间自适应的卷积核;d.合成新视图:将得到的卷积核作用到参考视点的输入纹理图的对应区域,生成目标图像的像素值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910499490.7/,转载请声明来源钻瓜专利网。