[发明专利]一种基于细节增强的双目立体匹配方法有效

专利信息
申请号: 201910580140.3 申请日: 2019-06-28
公开(公告)号: CN110427968B 公开(公告)日: 2021-11-02
发明(设计)人: 姚剑;谈彬;陈凯;涂静敏 申请(专利权)人: 武汉大学
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06T7/80
代理公司: 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 代理人: 罗飞
地址: 430072 湖*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于细节增强的双目立体匹配方法,首先,利用视差初始化子网络来获取低分辨率下的初始视差估计结果;然后,通过带引导模块的优化子网络,结合多尺度优化策略,逐步上采样并优化低分辨率初始视差,并输出全分辨率下的稠密视差估计结果;接着,使用多尺度损失函数,将低分辨率下的视差估计结果作为中间监督,以提高网络的收敛精度,促进全分辨率下的视差估计结果;再将待匹配的双目立体像对输入训练好的网络,得到视差估计结果。该方法通过对具有真实视差的训练数据集进行学习与训练,在极大提高了立体匹配所得到的视差结果的精度与鲁棒性的同时,还显著提升了视差图中对小目标以及边缘等细节信息的估计结果。
搜索关键词: 一种 基于 细节 增强 双目 立体 匹配 方法
【主权项】:
1.一种基于细节增强的双目立体匹配方法,其特征在于,包括:步骤S1:设置能够获取低分辨率下的初始视差估计结果的初始化子网络;步骤S2:设置带引导模块的优化子网络,初始化子网络与优化子网络构成视差估计网络模型,其中,优化子网络用以结合多尺度优化策略,逐步上采样并优化步骤S1中产生的低分辨率初始视差,输出全分辨率下的稠密视差估计结果;步骤S3:将立体像对中的左右图像作为训练样本集,采用多尺度损失函数,基于训练样本集,分别对初始化子网络、优化子网络以及整个视差估计网络模型进行训练;步骤S4:将待匹配的双目立体像对输入训练好的网络模型,得到预测的视差估计结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910580140.3/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top