[发明专利]一种基于细节增强的双目立体匹配方法有效
申请号: | 201910580140.3 | 申请日: | 2019-06-28 |
公开(公告)号: | CN110427968B | 公开(公告)日: | 2021-11-02 |
发明(设计)人: | 姚剑;谈彬;陈凯;涂静敏 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06T7/80 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 罗飞 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于细节增强的双目立体匹配方法,首先,利用视差初始化子网络来获取低分辨率下的初始视差估计结果;然后,通过带引导模块的优化子网络,结合多尺度优化策略,逐步上采样并优化低分辨率初始视差,并输出全分辨率下的稠密视差估计结果;接着,使用多尺度损失函数,将低分辨率下的视差估计结果作为中间监督,以提高网络的收敛精度,促进全分辨率下的视差估计结果;再将待匹配的双目立体像对输入训练好的网络,得到视差估计结果。该方法通过对具有真实视差的训练数据集进行学习与训练,在极大提高了立体匹配所得到的视差结果的精度与鲁棒性的同时,还显著提升了视差图中对小目标以及边缘等细节信息的估计结果。 | ||
搜索关键词: | 一种 基于 细节 增强 双目 立体 匹配 方法 | ||
【主权项】:
1.一种基于细节增强的双目立体匹配方法,其特征在于,包括:步骤S1:设置能够获取低分辨率下的初始视差估计结果的初始化子网络;步骤S2:设置带引导模块的优化子网络,初始化子网络与优化子网络构成视差估计网络模型,其中,优化子网络用以结合多尺度优化策略,逐步上采样并优化步骤S1中产生的低分辨率初始视差,输出全分辨率下的稠密视差估计结果;步骤S3:将立体像对中的左右图像作为训练样本集,采用多尺度损失函数,基于训练样本集,分别对初始化子网络、优化子网络以及整个视差估计网络模型进行训练;步骤S4:将待匹配的双目立体像对输入训练好的网络模型,得到预测的视差估计结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910580140.3/,转载请声明来源钻瓜专利网。