[发明专利]一种基于ELM-LRF的自适应视觉导航方法有效
申请号: | 201710337967.2 | 申请日: | 2017-05-15 |
公开(公告)号: | CN107179077B | 公开(公告)日: | 2020-06-09 |
发明(设计)人: | 王磊;赵行;李婵颖 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G06N3/08 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 杨学明;顾炜 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 elm lrf 自适应 视觉 导航 方法 | ||
1.一种基于ELM-LRF的自适应视觉导航方法,其特征在于:步骤如下:
(1)分配存储(st,at,rt,st+1,Qt)的空间;(st,at,rt,st+1,Qt)是结构体存储,st是当前状态,在这里为拍摄到的照片,at是在st下的动作,rt是at的即时回报,st+1是at后的状态,Qt值为在状态st下执行at后得到的总的长远回报;
(2)机器人在环境中运动,得到一组从初始位置到发现目标物的(st,at,rt,st+1,Qt)数据;
(3)机器人重置到初始位置,当在某状态st′下得到的Qt′比之前同状态st得到的Qt大时,删除在st状态下得到的(st,at,rt,st+1,Qt)数据,否则删除在st′下得到的(st′,at′,rt′,st+1′,Qt′);重复多次,从而得到较好的当前状态和最优动作的数据,即得到为训练ELM-LRF所提供的更好的样本数据;
(4)在步骤(3)的基础上,以st作为输入,at作为输出完成对基于局部接收野的极限学习机神经网络的训练,即ELM-LRF的训练,建立起当前状态和最优动作的映射关系;
(5)根据步骤(4)的建立起当前状态和最优动作的映射关系,测试机器人导航能力,观察机器人是否能找到目标。
2.根据权利要求1所述的基于ELM-LRF的自适应视觉导航方法,其特征在于:所述步骤(4)的具体实现过程如下:
(2.1)计算隐层输出矩阵H
给定的训练集(xi,ti),i=1…L,xi为步骤(3)得到的st,ti为步骤(3)得到的at,
h1(x)=G(ai,bi,x),ai∈Rd,bi∈R,i=1…L
其中,G(ai,bi,x)是一个非线性分段连续函数,实际上是将d维的输入空间映射到L维的隐层随机空间,是一个随机特征映射;ai,bi是第i个隐藏节点的参数,非线性分段连续函数的参数,R代表实数;
(2.2)根据步骤(2.1)中的H,求隐藏层至输出的权重β,
ELM-LRF的输出函数即映射关系,其中:
βL×m=[β1 … βL]T
通过求解来求β,
其中σ1>0,σ2>0,p,q>0,C用于控制两项的重要性,T是训练样例的目标矩阵:
当σ1=σ2=p=q=2时,常用的闭式解为:
p,q是范数下标,N是矩阵T的行数,L是矩阵β的行数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710337967.2/1.html,转载请声明来源钻瓜专利网。