[发明专利]一种基于ZNCC算法和神经网络的实时立体匹配方法在审
申请号: | 202210595064.5 | 申请日: | 2022-05-28 |
公开(公告)号: | CN114972474A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 李昀;徐新;常穹;施毅 | 申请(专利权)人: | 南京大学 |
主分类号: | G06T7/593 | 分类号: | G06T7/593;G06T3/40;G06N3/04;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 吴旭 |
地址: | 210000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 zncc 算法 神经网络 实时 立体 匹配 方法 | ||
1.一种基于ZNCC算法和神经网络的实时立体匹配方法,其特征在于,包括:
步骤1:对输入的RGB图像进行下采样并转灰度图,得到低分辨率的灰度图像;
步骤2:利用ZNCC算法、半全局算法、胜者通吃算法、单片匹配相优化进行快速立体视觉匹配,得到误差较大且低分辨率的视差图;
步骤3:利用神经网络对步骤2得到的视差图进行放大优化,得到原始分辨率的视差图;
步骤4:将步骤3得到的视差图转换为深度图像。
2.根据权利要求1所述的实时立体匹配方法,其特征在于,所述步骤2包括如下子步骤:
步骤2-1:将步骤1得到的灰度图像利用ZNCC算法计算匹配成本,具体包括:定义匹配窗口W,根据下式计算参考图与目标图中像素点的差异:
其中,
以及:
式中,C(x,y,d)表示IR(x,y)和IT(x-d,y)两个像素点之间的相似度,即为匹配成本,(x,y)、d分别表示坐标与视差,C(x,y,d)的值在0到1之间,值越小,两个像素点越相似;ΔIR(x,y)表示参考图中的像素点IR(x,y)减去其邻域的均值之后的结果;ΔIT(x-d,y)表示目标图中的像素点IT(x-d,y)减去其邻域均值之后的结果;σR(x,y)和σT(x-d,y)是匹配窗口W中像素值的标准差;和是匹配窗口W中像素值的平均值;
步骤2-2:将步骤2-1得到的匹配成本通过半全局算法进行聚合,具体公式如下:
其中,Cr(x,y,d)表示在r方向上匹配成本的聚合,r代表任意方向;Cr(x-r,y,d)表示在r方向上位于点(x,y)前面的所有像素视差为d的匹配成本的聚合;Cr(x-r,y,d+1)表示在r方向上位于点(x,y)前面的所有像素视差为(d+1)的匹配成本的聚合;Cr(x-r,y,d-1)表示在r方向上位于点(x,y)前面的所有像素视差为(d-1)的匹配成本的聚合;P1与P2是惩罚系数;Cr(x-r,y,i)表示在r方向上位于点(x,y)前面的所有像素视差为i的匹配成本的聚合,i为除了d与(d±1)以外的任意视差值;k为使得在r方向上位于坐标(x,y)前面的所有像素匹配成本聚合最小的视差值;
最终的成本值CSGM(x,y,d)从不同方向汇总如下:
最后,通过胜者通吃(WTA)算法获取初始低分辨率的视差图,具体公式如下:
Dmap(x,y)=argmind(CSGM(x,y,d))
其中,Dmap(x,y)表示低分辨率视差图中坐标为(x,y)像素点的值;
步骤2-3:将步骤2-2得到的低分辨率视差图通过单边匹配相算法进行优化,具体约束方程如下:
其中,D为视差图中最大的视差值,Dmap(x-l,y)表示视差图中坐标为(x-l,y)像素点的值,l表示任意小于D的正整数;不满足该方程的点会被标记为无效点,其视差值由左右方向最近且最小的有效值代替。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210595064.5/1.html,转载请声明来源钻瓜专利网。