[发明专利]基于认知网络的机器人避障方法有效
申请号: | 202010975322.3 | 申请日: | 2020-09-16 |
公开(公告)号: | CN112198793B | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 陈海波 | 申请(专利权)人: | 浙江理工大学 |
主分类号: | G05B13/04 | 分类号: | G05B13/04;G05B13/02;G05B17/02;G05D1/00;G05D1/02 |
代理公司: | 杭州新源专利事务所(普通合伙) 33234 | 代理人: | 章琪超 |
地址: | 310018 浙江省杭州市江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 认知 网络 机器人 方法 | ||
1.基于认知网络的机器人避障方法,其特征在于:包括构造认知网络集,在机器人的感知空间中利用短时记忆、整合长时记忆对认知网络集进行发育学习,并采用动态进化方法在认知网络集中进行多样性搜索,扩展认知网络集的规模,寻找更合理的认知网络集来完成避障行动;
具体包括以下步骤:
步骤一、构造认知网络集:认知网络集包括若干个认知网络,认知网络包括感知层、处理层、推理层、思维层和行动层,层内和层间由若干节点连接而成,连接不存在权重;初始的认知网络集中只有一个认知网络,所述认知网络只有感知层、思维层和行动层;
感知层用来接收外界输入,保存规整化数据,所述的外界输入包括对各个方向障碍物距离的感知输入、自身姿态的感知输入、自身动作的感知输入和外界奖励输入;处理层用来以感知层和处理层的其它节点作为输入并完成处理;推理层用来表征关于观察空间的知识,帮助动态认知网络作出最终决策;思维层用来作出决策;行动层根据决策动作控制机器人执行部件完成动作输出;
步骤二、发育学习认知网络:对认知网络集中的每一个认知网络,利用感知层和处理层的短时记忆,整合长时记忆,构造推理层的推理节点以及观察空间;并根据环境输入构造和/或调整推理层的推理节点中的推理场景;
步骤三、推理和决策:对认知网络集中的每一个认知网络,思维层在观察空间内随机选择若干个可执行的假想动作,对每一个假想动作,结合最新观察值匹配最近似的推理场景,计算每个推理场景的平均评估值,并选择获得评估值最大的假想动作作为实际决策动作,输出给行动层,行动层根据实际决策动作完成避障行动;
步骤四、决策评估:对认知网络集中的每一个认知网络,计算每一个推理场景的准确度和评估值属性;
步骤五、动态进化:在认知网络集中进行多样性搜索,通过种群扩展的动态进化方法逐步构造、扩展和完善认知网络集的规模;
步骤六、回到步骤二,直到所有避障任务都完成。
2.根据权利要求1所述的基于认知网络的机器人避障方法,其特征在于:所述步骤一中的处理层的处理节点包括:
差值处理节点,用来计算任两个节点在当前时刻的输入值的差值;
均值处理节点,用来计算任意多个有限输入节点在当前时刻输入值的均值;
速率处理节点,用来计算任一个节点在t时刻和t-1时刻输入值的差值。
3.根据权利要求1所述的基于认知网络的机器人避障方法,其特征在于:所述步骤一中的推理层由推理节点构成,构成方法包括:设定认知网络有N个感知节点和M个处理节点,将所有感知节点和处理节点统一称为输入节点INPUTS,
推理层的推理节点INF定义为:
C11(t-f1),C12(t-f2),...,C1p(t-fp)=C21(t),C22(t),...,C2q(t);
其中C11,C12,...,C1p称为INF的前置条件输入节点,C21,C22,...,C2q称为INF的后置输入节点,Cij(t-fj)表示在输入节点i上附加的时间戳为t-fj,t为当前时刻,t-fj为当前时刻之前的某一时刻,这里i∈{1,2,...p},j∈{1,2,...,q},t-fjT,T为短时记忆容量;
推理节点INF中的第k个推理场景为:
其中k∈{1,2,...,M}k∈{1,2,...,M},M为INF中所有推理场景的数量,分别为节点C1i在t-fi时刻的值,分别为节点C2j在t时刻的值,t表示当前时刻,每个推理场景代表一个高斯分量,推理节点根据感知层和处理层的短时记忆数据更新混合高斯模型,当混合高斯模型趋于稳定时,构成观察空间的分布特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江理工大学,未经浙江理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010975322.3/1.html,转载请声明来源钻瓜专利网。