[发明专利]自由视点视频中视点的重建方法有效
申请号: | 201110338406.7 | 申请日: | 2011-10-31 |
公开(公告)号: | CN102447932A | 公开(公告)日: | 2012-05-09 |
发明(设计)人: | 刘琼;喻莉;张军涛 | 申请(专利权)人: | 华中科技大学 |
主分类号: | H04N13/00 | 分类号: | H04N13/00 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 朱仁玲 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自由 视点 视频 重建 方法 | ||
1.一种自由视点视频中特定视点的重建方法,包括以下步骤:
输入多视点视频中任意两路参考视频序列和目标视点的深度图序列;
提取所述两路参考视频序列的运动匹配信息,并根据所述运动匹配信息确定所述两路参考视频序列的最大视差范围;
分别计算所述两路参考视频序列的边缘信息,以及所述目标视点的深度图序列的边缘信息;
使用边缘匹配的方法分别将所述两路参考视频序列的边缘信息与所述目标视点的深度图序列的边缘信息比较,以获取两部分运动匹配信息;
根据所述运动匹配信息,分别从所述两路参考视频序列中将其与所述深度图序列匹配的区域中的像素值填充到新的视频区域中,以形成两个新的视点视频序列;
利用加权计算将所述两路新的视点视频序列合并为初始目标视点视频序列,并对所述初始目标视点视频序列进行补偿处理;
对所述初始目标视点视频序列进行双边滤波处理。
2.如权利要求1所述的重建方法,其特征在于,所述提取所述两路参考视频序列的运动匹配信息的步骤是通过块匹配或光流的方法得到。
3.如权利要求1所述的重建方法,其特征在于,所述根据所述运动匹配信息确定所述两路参考视频序列的最大视差范围的步骤是通过对所述运动匹配信息进行直方图统计以找到最大值的方法得到。
4.如权利要求1所述的重建方法,其特征在于,所述分别计算所述两路参考视频序列的边缘信息,以及所述目标视点的深度图序列的边缘信息的步骤是通过索贝尔算法得到。
5.如权利要求1所述的重建方法,其特征在于,所述使用边缘匹配的方法分别将所述两路参考视频序列的边缘信息与所述目标视点的深度图序列的边缘信息比较,以获取两部分运动匹配信息的步骤是采用轮廓矩匹配的方法得到。
6.如权利要求1所述的重建方法,其特征在于,还包括采用线性偏移方法将所述两路参考视频序列中与所述深度图序列不匹配的区域中的像素值填充到所述新的视频区域中的步骤。
7.如权利要求6所述的重建方法,其特征在于,所述采用线性偏移方法将所述两路参考视频序列中与所述深度图序列不匹配的区域中的像素值填充到所述新的视频区域中的步骤包括:
设定偏移方程Lshift=aD+b,其中Lshift是偏移距离,D为深度值,a和b为方程参数;
在所述两路参考视频序列中与所述深度图序列匹配的区域中选择两个不同深度的像素点,将所述像素点的深度值和偏移距离代入所述偏移方程得到a和b;
通过所述偏移方程计算所述两路参考视频序列中与所述深度图序列不匹配的区域的偏移距离;
取所述两路参考视频序列中与所述深度图序列不匹配的区域中的像素点,根据所述不匹配的区域的偏移距离进行坐标偏移,并将其填充至所述新的视频区域中。
8.如权利要求1所述的重建方法,其特征在于,所述利用加权计算将所述两路新的视点视频序列合并为初始目标视点视频序列的步骤是通过公式f=αp1+βp2实现,其中p1和p2是所述两路新的视点视频序列中的像素信息,α和β是加权参数,它们的值介于0和1之间,且计算公式为其中L1和L2分别为所述两路参考视频序列与所述深度图序列中对应图像的最大视差范围。
9.如权利要求1所述的重建方法,其特征在于,所述对所述初始目标视点视频序列进行补偿处理的步骤包括:对所述两路参考视频序列的运动匹配信息中静止的区域进行加权补偿,补偿公式为p=0.5pnew+0.5pold,其中pnew为初始目标视点视频序列的背景像素值,pold为所述参考视频序列的背景像素值,p为补偿后的目标视点视频序列的像素值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201110338406.7/1.html,转载请声明来源钻瓜专利网。