[发明专利]一种基于卷积神经网络的单目深度信息获取方法在审
申请号: | 201910654412.X | 申请日: | 2019-07-19 |
公开(公告)号: | CN110517309A | 公开(公告)日: | 2019-11-29 |
发明(设计)人: | 魏东;张晨;崔泽璐;樊启明;蒋晓彤 | 申请(专利权)人: | 沈阳工业大学 |
主分类号: | G06T7/593 | 分类号: | G06T7/593;G06T7/80 |
代理公司: | 21115 沈阳智龙专利事务所(普通合伙) | 代理人: | 宋铁军<国际申请>=<国际公布>=<进入 |
地址: | 110870 辽宁省沈阳*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 匹配代价 深度信息 网络模型 真实场景 视差图 构建 匹配 优化 计算机视觉领域 图像 卷积神经网络 深度信息获取 图像处理技术 单目摄像机 图像预处理 采集图像 聚合处理 立体匹配 全局算法 十字交叉 视差计算 纹理区域 细节特征 像素匹配 序列获取 训练样本 单目 噪声 表现 | ||
1.一种基于卷积神经网络的单目深度信息获取方法,其特征在于:方法包括:
步骤一:图像预处理:对标准图库中带有真实视差值的立体图像对分别做相同的随机变化预处理,得到训练数据和测试数据;
步骤二:构建训练样本:在预处理训练数据的图像对中,选择两张图像中的多组对应图像块组成训练样本;
步骤三:构建网络模型:网络模型由L1到L8共8层构成,分成2个部分;第一部分构建两个相同的子网络,L1到L4共四层,每一层的结构都依次由卷积层、归一化层和ReLU激活函数组成;然后在L5层通过一个连接层,将两个子网络提取的特征向量连接为一个张量;第二部分是决策层,L6到L8共三层结构,每层都由全连接层和ReLU激活函数组成,最后一层全连接L8后使用sigmod函数输出结果;
步骤四:获取待匹配的图像:使用单目摄像机获取视频序列,通过摄像机自标定消除图片畸变,并利用几何校正对齐图片,获得待匹配的图像;
步骤五:匹配代价计算:将待匹配的图像对输入到训练好的卷积神经网络模型,输出待匹配的图像对的相似度数值,根据相似数确定初始匹配代价;
步骤六:匹配代价聚合和优化:对初始匹配代价进行带权值的十字交叉聚合处理,同时采用半全局算法的优化匹配代价;
步骤七:视差计算:采用WTA在优化后的匹配代价的基础上计算视差;
步骤八:视差优化;在步骤七获得的视差值的基础上,进行优化,获得视差图;
步骤九:计算深度信息:利用步骤八获得的视差图计算单目深度信息。
2.根据权利要求1所述的基于卷积神经网络的单目深度信息获取方法,其特征在于:步骤一中随机变换方式包括旋转rotate、缩放scale、剪切shear、改变亮度bright和改变对比度contrast。
3.根据权利要求1所述的基于卷积神经网络的单目深度信息获取方法,其特征在于:根据步骤二中的训练样本构建训练实例,将训练实例用在步骤三中构造的网络模型中,得到经过训练网络模型。
4.根据权利要求3所述的基于卷积神经网络的单目深度信息获取方法,其特征在于:所述的训练网络模型进行有监督的反向传播算法计算,使用二元交叉熵目标函数表示为公式(1):
其中,N为训练集中的个数,训练集中第i个样本的期望输出为s1时的概率为训练集中第i个样本的实际输出为s2时的概率为
5.根据权利要求1所述的基于卷积神经网络的单目深度信息获取方法,其特征在于:步骤二中,根据已知图像对其中表示左图像中以p(x,y)为中心大小为n×n的图像块,表示右图像中以q为中心的图像块,已知左图中p点的真实视差为d,为p点设置一个正确的匹配实例和一个错误的匹配实例;
为获得正确的训练实例,将右图像块的中心位置q的坐标表示为:
q=(x-d+Orig,y)
其中Orig∈[-rig,rig];Orig表示正确匹配合集中的随机值,d表示p点的真实视差,x、y表示坐标轴中的图像块中心坐标值,rig是正确匹配集合的度量;
为了获得错误的训练实例,将右图像块的中心位置q的坐标表示为:
q=(x-d+Oerr,y)
其中Oerr∈[-errh,-errl]∪[errl,errh],Oerr表示错误匹配合集中的随机取值,errl和errh是错误匹配集合的度量的最低和最高值。
6.根据权利要求1或5所述的基于卷积神经网络的单目深度信息获取方法,其特征在于:由训练样本构成的匹配集合,若输入的图像对属于正确匹配集合,则输出类别t=1;若输入的图像对属于错误匹配集合,则输出类别t=0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于沈阳工业大学,未经沈阳工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910654412.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种无参考非对称失真立体图像质量评价方法
- 下一篇:前方车体预测系统