[发明专利]一种单目深度估计方法有效

专利信息
申请号: 201910340694.6 申请日: 2019-04-25
公开(公告)号: CN110060286B 公开(公告)日: 2023-05-23
发明(设计)人: 张云洲;刘及惟;冯永晖;王帅;裴美淇 申请(专利权)人: 东北大学
主分类号: G06T7/50 分类号: G06T7/50
代理公司: 北京易捷胜知识产权代理有限公司 11613 代理人: 韩国胜
地址: 110169 辽*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 深度 估计 方法
【说明书】:

发明实施例涉及一种单目深度估计方法,其包括:获取待处理图像,并对所述待处理图像进行缩放处理,得到缩放图像;对所述缩放图像基于多尺度全卷积密集神经网络进行训练,得到深度图;对所述深度图进行放大处理,得到与所述待处理图像的尺寸大小相同的深度图;其中对所述缩放图像基于多尺度全卷积密集神经网络进行训练包括:对所述缩放图像进行特征提取,得到浅层特征;通过多尺度模块对所述浅层特征进行特征连接,得到深层特征;将所述深层特征与处理后的浅层特征进行特征连接,得到所述深度图。本发明实施例提供的方法通过多尺度全卷积密集神经网络对待处理图像进行训练,不仅可以大幅提高单目深度估计的准确率,还能提高单目深度估计的精度。

技术领域

本发明涉及计算机视觉技术领域,尤其涉及一种单目深度估计方法。

背景技术

目前,单目深度估计技术是计算机视觉领域中的热门技术,该技术可以广泛应用于3D建模、场景理解和深度感知等领域。

通常,单目深度估计算法主要可以分为三类,即传统方法、基于深度学习的有监督方法和基于深度学习的无监督方法。其中,传统方法使用图像中提取的手工特征,通过马尔科夫随机场对图像的相关关系进行建模,但是这些手工特征并不能较好地代表场景的3D结构信息,因此性能不理想。基于深度学习的无监督方法提出使用多视角信息作为有监督信号,可以有效地减少训练成本。而基于深度学习的有监督方法需要大量的真实深度标签,基于卷积神经网络具有的强大的从图像中学习到丰富的特征表达的能力,可以提高单目深度估计的准确性。

基于上述,基于深度学习的有监督方法具有准确率高的优势,但得到的深度图中仍然存在细节模糊、边缘不清晰等问题化。

上述缺陷是本领域技术人员期望克服的。

发明内容

(一)要解决的技术问题

为了解决现有技术的上述问题,本发明提供一种单目深度估计方法,其可以在提高准确率的同时提高单目深度估计的深度,解决深度图中细节模糊、边缘不清晰的问题。

(二)技术方案

为了达到上述目的,本发明采用的主要技术方案包括:

本发明一实施例提供一种单目深度估计方法,其包括:

获取待处理图像,并对所述待处理图像进行缩放处理,得到缩放图像;

对所述缩放图像基于多尺度全卷积密集神经网络进行训练,得到深度图;

对所述深度图进行放大处理,得到与所述待处理图像的尺寸大小相同的深度图;

其中对所述缩放图像基于多尺度全卷积密集神经网络进行训练包括:

对所述缩放图像进行特征提取,得到浅层特征;

通过多尺度模块对所述浅层特征进行特征连接,得到深层特征;

将所述深层特征与处理后的浅层特征进行特征连接,得到所述深度图。

本发明的一个实施例中,所述对所述缩放图像进行特征提取,得到浅层特征包括:

对所述缩放图像进行卷积运算;

利用DenseNet模块密集连接机制对所述卷积运算的结果进行特征提取,得到l层网络的输出为xl

xl=Hl([xl-1,xl-2,...,x0]),

其中Hl(·)表示非线性激活,[xl-1,xl-2,...,x0]表示密集连接操作。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910340694.6/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top