[发明专利]一种基于卷积神经网络的双目视觉场景深度估计方法在审
申请号: | 201911381363.3 | 申请日: | 2019-12-27 |
公开(公告)号: | CN111179330A | 公开(公告)日: | 2020-05-19 |
发明(设计)人: | 何世强;李瑞峰;蒋清山;张陈涛;林雅峰;林程 | 申请(专利权)人: | 福建(泉州)哈工大工程技术研究院 |
主分类号: | G06T7/55 | 分类号: | G06T7/55 |
代理公司: | 泉州市立航专利代理事务所(普通合伙) 35236 | 代理人: | 姚婉莉 |
地址: | 362000 福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 双目 视觉 场景 深度 估计 方法 | ||
本发明涉及摄像监控中目标物体位置的估计方法领域,具体是公开一种基于卷积神经网络的双目视觉场景深度估计方法,采用摄像设备为可实现双目视觉的摄像设备,获取左、右图像,采用卷积神经网络学习方法,将双目相机的获取的左、右图像分别输入卷积神经网络进行特征提取,获得左、右图像的图像特征;将获得的左、右图像的图像特征进行融合获得融合后特征图像,将融合后特征图像通过编解码模块进行代价聚合,代价聚合后接着通过视差回归得到左、右图像的图像特征的视差图;通过视差图与深度图的几何变换关系生成对应的深度图像。通过可实现双目视觉的摄像设备对某一区域进行监测,当出现目标物体时能够快速准确的定位出目标物体相对于相机实际位置。
技术领域
本发明涉及摄像监控中目标物体位置的估计方法领域,具体是涉及一种基于卷积神经网络的双目视觉场景深度估计方法。
背景技术
在现有使用的摄像监控技术中,在对大场景区域进行摄像监控时,需要安装较多的监控摄像头才能完全覆盖监控场景,使用时是所有摄像头同时开机实时监控,如果是需要对目标区域物体进行实时监控时,现有的技术往往需要消耗较多的计算资源。
现有的一种基于深度学习的单目视觉场景深度估计的方法是采用VGG-13 网络模型,将单目图像输入训练好的网络模型,经过多次双线性插值之后生成多个尺度的视差图,再结合多尺度融合与视差图平滑生成与输入图像尺度一致的单幅视差图;根据多视图几何学中视差图与深度图的几何变换关系,生成对应的深度图像。现有的单目视觉场景深度估算方法的缺点是单目视觉场景深度估算的适用性差,只能在训练场景下的应用才能取得较好的结果,当应用于其它场景时效果差,并且估算结果依赖于相机的矫正参数。
发明内容
本发明的目的在于提供一种通过双目视觉对某一区域进行监测,当出现目标物体时能够快速准确的定位出目标物体相对与相机实际位置的一种基于卷积神经网络的双目视觉场景深度估计方法。
为实现上述目的,本发明的技术方案是:
通过采用上述技术方案,本发明的有益效果是:一种基于卷积神经网络的双目视觉场景深度估计方法,其特征在于,场景监控摄像系统中采用的摄像设备为可实现双目视觉的摄像设备,所述可实现双目视觉的摄像设备其双目视觉分别获取的图像为左、右图像,图像识别采用卷积神经网络学习方法,其双目视觉场景深度估计方法步骤如下:首先,将双目相机的获取的左、右图像分别输入卷积神经网络进行特征提取,获得左、右图像的图像特征;然后,将获得的左、右图像的图像特征进行融合获得融合后特征图像,接着将融合后特征图像通过编解码模块进行代价聚合,代价聚合后接着通过视差回归得到左、右图像的图像特征的视差图;最后,通过视差图与深度图的几何变换关系生成对应的深度图像。
所述左、右图像分别输入卷积神经网络进行特征提取是左、右图像的左图像和右图像分别输入在两路卷积神经网络结构模型中,分别进行左图像和右图像的特征提取,两路卷积神经网络结构模型之间实行参数共享,在卷积神经网络进行特征提取时分别由多个卷积层及池化层堆叠而成,每层卷积层都进行一次批标准化,并利用ReLu激活函数进行激活。
所述编解码模块对融合后特征图像利用卷积运算进行编码,然后再利用反卷积运算对融合后特征图像进行解码达到对左、右图像的图像特征的代价聚合,从而得到视差图。
所述深度图像的生成公式如下:
D(i,j)=(b*f)/d(i,j)
式中:d(i,j)为像素坐标(i,j)处的视差值,D(i,j)为像素坐标(i,j)处的深度值,b为双目相机已知的双目之间的距离,f为双目相机的相机焦距。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建(泉州)哈工大工程技术研究院,未经福建(泉州)哈工大工程技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911381363.3/2.html,转载请声明来源钻瓜专利网。