[发明专利]一种基于卷积神经网络的双目视觉场景深度估计方法在审
申请号: | 201911381363.3 | 申请日: | 2019-12-27 |
公开(公告)号: | CN111179330A | 公开(公告)日: | 2020-05-19 |
发明(设计)人: | 何世强;李瑞峰;蒋清山;张陈涛;林雅峰;林程 | 申请(专利权)人: | 福建(泉州)哈工大工程技术研究院 |
主分类号: | G06T7/55 | 分类号: | G06T7/55 |
代理公司: | 泉州市立航专利代理事务所(普通合伙) 35236 | 代理人: | 姚婉莉 |
地址: | 362000 福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 双目 视觉 场景 深度 估计 方法 | ||
1.一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,场景监控摄像系统中采用的摄像设备为可实现双目视觉的摄像设备,所述可实现双目视觉的摄像设备其双目视觉分别获取的图像为左、右图像,图像识别采用卷积神经网络学习方法,其双目视觉场景深度估计方法步骤如下:首先,将双目相机的获取的左、右图像分别输入卷积神经网络进行特征提取,获得左、右图像的图像特征;然后,将获得的左、右图像的图像特征进行融合获得融合后特征图像,接着将融合后特征图像通过编解码模块进行代价聚合,代价聚合后接着通过视差回归得到左、右图像的图像特征的视差图;最后,通过视差图与深度图的几何变换关系生成对应的深度图像。
2.如权利要求1所述的一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,所述左、右图像分别输入卷积神经网络进行特征提取是左、右图像的左图像和右图像分别输入在两路卷积神经网络结构模型中,分别进行左图像和右图像的特征提取,两路卷积神经网络结构模型之间实行参数共享,在卷积神经网络进行特征提取时分别由多个卷积层及池化层堆叠而成,每层卷积层都进行一次批标准化,并利用ReLu激活函数进行激活。
3.如权利要求1或2所述的一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,所述编解码模块对融合后特征图像利用卷积运算进行编码,然后再利用反卷积运算对融合后特征图像进行解码达到对左、右图像的图像特征的代价聚合,从而得到视差图。
4.如权利要求1或2所述的一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,所述深度图像的生成公式如下:
D(i,j)=(b*f)/d(i,j)
式中:d(i,j)为像素坐标(i,j)处的视差值,D(i,j)为像素坐标(i,j)处的深度值,b为双目相机已知的双目之间的距离,f为双目相机的相机焦距。
5.如权利要求3所述的一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,所述深度图像的生成公式如下:
D(i,j)=(b*f)/d(i,j)
式中:d(i,j)为像素坐标(i,j)处的视差值,D(i,j)为像素坐标(i,j)处的深度值,b为双目相机已知的双目之间的距离,f为双目相机的相机焦距。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建(泉州)哈工大工程技术研究院,未经福建(泉州)哈工大工程技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911381363.3/1.html,转载请声明来源钻瓜专利网。