[发明专利]一种基于自运动估计的视觉测距算法在审
申请号: | 201710686867.0 | 申请日: | 2017-08-11 |
公开(公告)号: | CN107506333A | 公开(公告)日: | 2017-12-22 |
发明(设计)人: | 夏春秋 | 申请(专利权)人: | 深圳市唯特视科技有限公司 |
主分类号: | G06F17/17 | 分类号: | G06F17/17;G06N3/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518057 广东省深圳市高新技术产业园*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 运动 估计 视觉 测距 算法 | ||
技术领域
本发明涉及视觉测距领域,尤其是涉及了一种基于自运动估计的视觉测距算法。
背景技术
视觉测距算法广泛应用于汽车预警、军事、工程建设、机器人、定位等领域。具体地,在汽车预警领域,通过视觉测距算法可以具体计算出行车轨迹,在行车记录仪中使用测距算法,可以计算汽车障碍物的距离,有利于汽车驾驶。而在军事领域,利用视觉测距算法,可以记录前进轨迹,并预测敌人活动范围。在机器人领域,根据视觉测距算法,机器人在行走过程中可以更好的避开障碍物。另外,在定位领域,视觉测距算法可以给出更为精确的位置信息。由于目前的测距系统,大多只采用单一的传感器,并且对其模型具有强烈的依赖性,对数据泛化性能没有保障,因此,要保证测距结果的确定性尚且存在一定的挑战。
本发明提出了一种基于自运动估计的视觉测距算法,把自运动回归任务作为密度估计问题,通过跟踪自运动在图像中引起的显着特征,学习这些从跟踪特征的自运动范围内概率质量的映射。本发明提出了一种可训练的视觉自运动学习结构,通过混合密度网络(MDN)将光学向量映射到自运动密度估计,通过条件变分自编码器(C-VAE),根据自运动估计和输入的特征位置为场景流提供的内省推理,预测实际轨迹,为工程领域的新设计,以及定位领域的创新解决方案做了进一步贡献。
发明内容
针对视觉测距,提出了一种视觉自运动学习结构,根据自运动估计和输入的特征位置为场景流提供的内省推理,预测实际轨迹,为工程领域的新设计,以及定位领域的创新解决方案做了进一步贡献。
为解决上述问题,本发明提供一种基于自运动估计的视觉测距算法。其主要内容包括:
(一)自运动密度估计;
(二)轨迹优化;
(三)自运动估计自举学习;
(四)场景流预测进行内省推理。
其中,所述的自运动密度估计,联合概率密度p(x,z)分解为p(z|x)和p(x)两个项的乘积,p(z|x)是目标姿态z∈SE(3)从稀疏光流获得的输入对应特征x=(x,△x)的条件密度,其中SE(3)为李群,条件密度p(z|x)预测给定新值x的可能值范围z,p(x)是输入数据x的无条件密度,无条件密度p(x)=∑zp(x,z)dz提供训练模型捕获的预测效果,估计自运动信度的关键是能够准确预测给定的输入特征x和流量Δx引起的姿态估计条件概率分布p(z|x),由于它具有强大而丰富的建模能力,故采用混合密度网络(MDN)用参数来表示条件密度估计。
其中,所述的混合密度网络,是一种端对端可训练的密度估计技术,利用传统的神经网络来回归生成模型的参数,神经网络加上高斯混合模型中丰富的概率模型,模拟视觉自运动等反演问题中产生的多值或多模态信度,在每个输入流F中,通过目标跟踪算法提取特征xi,目标姿态数据zi的条件概率密度表示为K个高斯成分的凸面组合,目标姿态zi由等式(1)得出:
其中,πk(x)是高斯混合模型中规定的第k个组件的混合系数,高斯核通过其平均向量μk(x)和对角线协方差σk(x)参数化,参数πk(x),μk(x),σk(x)是x的一般连续函数,将这些参数建模,作为x输入传统神经网络后的输出,神经网络的输出约束如下:混合系数的总和必须为1,即∑Kπk(x)=1,其中0≤πk(x)≤1,这个过程通过softmax激活函数来完成:
方差σk(x)在等式(3)中通过指数激活为正:
模型通过最大化数据的对数似然或者最小化负对数似然进行端对端学习,其中负对数似然表示为:
给定F的输入特征轨迹(x1,…xF)和预期自运动估计z,结合密度乘积,从每个个体流向量xi获得自运动密度估计p(zi|xi),为了保持密度乘积的易处理性和之后的轨迹优化,通过以下等式:
把每个特征对应的最大混合系数进行平均和协方差处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市唯特视科技有限公司,未经深圳市唯特视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710686867.0/2.html,转载请声明来源钻瓜专利网。