[发明专利]一种基于位姿解耦估计的无监督单目视觉里程计方法在审
申请号: | 202011151965.2 | 申请日: | 2020-10-26 |
公开(公告)号: | CN112308918A | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 周文晖;王威盛;孙煨;张桦;戴国骏 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/77;G06N3/04;G06N3/08;G06F7/523;G06F17/16 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 位姿解耦 估计 监督 目视 里程计 方法 | ||
本发明公开了一种基于位姿解耦估计的无监督单目视觉里程计方法。本发明包括如下步骤:S1:准备KITTI数据集并进行预处理;S2:基于位姿解耦估计公式,设计位姿解耦估计网络;S3:设计基于位姿解耦估计的无监督单目视觉里程计;S4:定义基于位姿解耦估计的无监督单目视觉里程计的损失函数;S5:使用KITTI数据集中的训练集训练基于位姿解耦估计的无监督单目视觉里程计。本发明从相机位姿估计的级联解耦结构设计开始,以实现精确的位姿估计;并将其扩展到无监督单目视觉里程计,实现相邻帧间相机位姿的旋转矩阵和平移矩阵解耦估计;为提高旋转矩阵估计的鲁棒性,旋转矩阵采用单位四元数表示;最终在KITTI数据库上完成训练和测评。
技术领域
本发明是关于深度学习与计算机视觉领域,特别涉及了一种基于位姿解耦估计的无监督单目视觉里程计方法。
背景技术
深度学习是近年来人工智能领域中的一项重要突破,已在图像分类、图像理解、语音识别、自然语言处理等多个方向取得了突破性进展。相比于传统机器学习方法,深度学习方法的主要过程为:构建数据集;使用卷积层、全连接层、激活层等设计深度神经网络,设计损失函数;利用数据集训练深度神经网络,采用误差反传技术和梯度下降的优化方法更新深度神经网络中的参数,使得深度神经网络沿着损失函数最小的方向学习。训练完成的深度神经网络模型可拟合出高维复杂函数,实现网络输入到输出的期望映射,并在测试数据集上进行预测。卷积神经网络是深度学习方法中发展最成功的网络结构之一,它利用卷积层提取输入图像的低维和高维语义特征,然后利用这些语义特征完成分类、回归等任务。无监督学习是深度学习方法中的一类学习机制,可从无标记的训练数据中学习到语义特征。
基于视觉的定位方法通常有视觉里程计(Visual Odometry,VO) 和视觉同时定位与地图构建方法(Visual Simultaneous Localization and Mapping,V-SLAM)。视觉里程计由Nister提出,通过分析图像序列中前后帧图像来估计相机自运动。视觉里程计无需相机运动和场景的先验信息,并且能避免传统里程计中的缺点和局限。如果只使用一个相机进行定位估计,称为单目视觉里程计。如果使用立体视觉相机,则称为双目视觉里程计。一般使用立体视觉相机的情况时,根据两个相机在水平轴上的位置关系,称在左边的相机为左相机,在右边的相机为右相机。视觉里程计目标是根据相机拍摄的图像序列估计相机运动。相机运动表示为相邻图像帧间相机的空间位置变化,包括相机的平移距离和旋转角度。
发明内容
本发明的目的是提供一种基于位姿解耦估计的无监督单目视觉里程计方法。本发明具体实现包括如下步骤:
步骤S1:准备KITTI数据集并进行预处理;
步骤S2:基于位姿解耦估计公式,设计位姿解耦估计网络;
步骤S3:设计基于位姿解耦估计的无监督单目视觉里程计;
步骤S4:定义基于位姿解耦估计的无监督单目视觉里程计的损失函数;
步骤S5:使用KITTI数据集中的训练集训练基于位姿解耦估计的无监督单目视觉里程计。
进一步的,所述步骤S2具体实现包括:
步骤S2-1:所述的位姿解耦估计公式是将两帧间的相机位姿矩阵分解为解耦平移矩阵和解耦旋转矩阵的级联相乘,从而将相机位姿估计分解为解耦平移矩阵和解耦旋转矩阵的级联估计;具体表述为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011151965.2/2.html,转载请声明来源钻瓜专利网。