[发明专利]一种基于深度学习的双目视觉深度信息获取方法在审
申请号: | 201611139279.7 | 申请日: | 2016-12-12 |
公开(公告)号: | CN106600650A | 公开(公告)日: | 2017-04-26 |
发明(设计)人: | 时岭;高勇 | 申请(专利权)人: | 杭州蓝芯科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/593 |
代理公司: | 杭州求是专利事务所有限公司33200 | 代理人: | 邱启旺 |
地址: | 311121 浙江省杭州市余杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 双目 视觉 信息 获取 方法 | ||
技术领域
本发明属于立体视觉技术领域,尤其涉及一种基于深度学习的双目视觉深度信息获取方法。
背景技术
近年来,深度信息在传感器中获得了越来越多的应用。获取深度信息的技术主要有双目立体匹配、TOF(Time of Flight,飞行时间)、单目结构光、激光雷达等技术。这些技术可以为传感器增加额外的深度信息,在图像识别与处理、场景理解、VR、AR和机器人等领域有着广泛的应用。然而,当前市面上的主流产品依旧有各自的使用范围和局限性。比如,微软的Kinect(TOF)只能在室内和有限光照的室外场景中使用,而且距离的局限性较大;单目结构光技术需要发出主动能量,同样不适用于室外光照较强的场景;双目立体匹配技术属于计算机立体视觉领域,此技术虽然适用于室内和室外,然而在处理纹理缺失时效果不佳,而且存在精确定焦、计算时间等问题;激光雷达等设备价格相对昂贵,且大部分只能获取二维平面的深度信息。
发明内容
针对上述不足,本发明提供一种基于深度学习的双目视觉深度信息获取方法,本发明的核心是计算双目左右图像相互关联的亮度(色彩)信息,利用大量的图像和深度信息进行训练和学习,获得双目图像的视差的数据模型,并在实际获取双目信息之后,根据训练的模型,快速准确的获得当前场景的立体信息,从而成功获取深度。
为了达到上述目的,本发明所采用的技术方案如下:一种基于深度学习的双目视觉深度信息获取方法,包括如下步骤:
步骤1:训练数据的获取;
首先,获取N对双目视觉系统拍摄的图片对{Pi|i=1,2,…,N},每个图片对Pi包括左侧相机拍摄的左图和右侧相机拍摄的右图其中上标i代表图片次序;同时获取与每个图片对Pi对应的深度图Di;将图片对和每个图片对Pi对应的深度图构成原始的数据集{Pi,Di|i=1,2,…,N};
步骤2:标注原始数据集,生成训练数据;
每幅深度图Di上选取M个特征像素点{DPi(xj,yj,zj)|j=1,2,…,M},并分别在左右图中 找出其对应的像素点的坐标{PTleft(xj,yj),PTright(xj,yj)|j=1,2,…,M};每个图像对Pi上包含M组数据{DPi(xj,yj,zj),PTleft(xj,yj),PTright(xj,yj)|j=1,2,…,M};总共的训练样本有M×N组;
步骤3:对获取的图像和深度信息进行深度学习网络训练;
利用M×N组数据{DPi(xj,yj,zj),PTleft(xj,yj),PTright(xj,yj)|j=1,2,…,M}以及原始的左右图像数据{Pi|i=1,2,…,N},进行深度学习网络训练,得到网络模型Modelx;
以每个左右图对应点PTleft(xj,yj),PTright(xj,yj)为中心,截取宽高分别为Wx,Wy的图片对,将截取的图片对与对应点的图像坐标作为深度学习网络输入,其对应的深度信息三维坐标{DPi(xj,yj,zj)|j=1,2,…,M,i=1,2,…,N}作为监督输出;
步骤4:获得深度图输出;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州蓝芯科技有限公司,未经杭州蓝芯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611139279.7/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于二维标记码的相机自标定方法
- 下一篇:一种成像系统的建模方法