[发明专利]基于深度学习的视觉里程计特征点提取方法及视觉里程计有效
申请号: | 201910948470.3 | 申请日: | 2019-10-08 |
公开(公告)号: | CN110766024B | 公开(公告)日: | 2023-05-23 |
发明(设计)人: | 熊炜;金靖熠;李敏;李利荣;王娟;曾春艳;刘敏 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/75;G06V10/82;G06N3/0895;G06N3/0464 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 魏波 |
地址: | 430068 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 视觉 里程计 特征 提取 方法 | ||
1.一种基于深度学习的视觉里程计特征点提取方法,其特征在于,包括以下步骤:
步骤1:构建深度学习特征点模型;
所述模型是利用自监督学习方式对角点进行提取并生成对应描述子的网络模型,包括对人工角点预训练、对真实图片角点自标注、联合训练三个阶段;
所述对人工角点预训练,使用OpenCV图像处理库生成预定数量的包含简单几何形状的图像,图像中加入高斯噪声,并记录相应的角点标注信息,作为标签;使用VGG-16网络对这些人工生成的标注图像进行训练得到一个基础角点检测器;
所述对真实图片角点自标注,结合Homegraphic Adaptation方法,使用人工角点预训练中得到的基础角点检测器对若干自然场景图像进行角点提取,即通过自监督的方式得到自然场景图像的角点标注信息;
所述联合训练,使用Warp方法,对真实图片角点自标注中所得的带有标注信息的图像进行仿射变换,生成角点标注图像对;使用VGG-16网络对角点标注图像对进行再训练,通过最小化角点距离误差函数和图像对匹配误差函数,得到能同时提取角点和描述子的模型;
步骤2:优化深度学习特征点模型;
步骤3:特征点检测;
步骤4:特征点匹配;
使用双向最邻近方法对描述子进行匹配;
匹配公式为:
其中,dik为描述子,对每个描述子进行归一化处理得到为对第i幅图像的第k个描述子进行归一化得到的结果,N为自然数;
使用欧氏距离dm,n作为描述子相似程度的度量范数,
dm,n为两个描述子在欧氏距离上的相似度表示,距离dm,n限定在阈值δ内,其值越小,表示两个描述子的匹配程度越高;
在给定前一帧图像的某个特征点时,求出下一帧图像的特征点使得描述子的距离最小化,即为一个匹配点对(m,n*),这样的所有匹配点对构成了两帧图像的特征点匹配集合Am→n,称之为m→n方向的最邻近匹配;为了提升匹配的准确率,按照公式7计算n→m方向的最邻近匹配,得到匹配集合Bn→m,距离阈值δ用于过滤误匹配的情况;则最终的匹配集合为为Am→n和Bn→m的交集,特征点双向最邻近匹配集合为Am→n∩Bn→m;
。
2.根据权利要求1所述的基于深度学习的视觉里程计特征点提取方法,其特征在于:步骤2中所述优化深度学习特征点模型,针对联合训练中,对仿射变换的图像进一步实施光度变换,使用亮度非线性逐点调整方法对图像亮度进行Gamma调整,图像亮度Gamma调整为:
I′(x,y)=(I(x,y)/255)γ·255,0.5≤γ≤2 (1)
其中,I(x,y)和I′(x,y)分别是像素(x,y)的灰度值和校正值,γ为调整参数,取值区间为[0.5,2],当γ值大于1可增加图像亮度,反之则降低图像亮度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910948470.3/1.html,转载请声明来源钻瓜专利网。