[发明专利]基于感知器模型的机器人多关节自适应补偿方法和稳定器有效
申请号: | 201910892895.7 | 申请日: | 2019-09-20 |
公开(公告)号: | CN110712201B | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 刘成菊;周浩然;陈启军 | 申请(专利权)人: | 同济大学 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 翁惠瑜 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 感知 模型 机器人 关节 自适应 补偿 方法 稳定 | ||
本发明涉及一种基于感知器模型的机器人多关节自适应补偿方法和稳定器,所述方法包括以下步骤:1)基于机器人惯性传感器和步态生成器,获取误差数据;2)将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,计算并输出补偿值;3)基于补偿值对机器人进行运动补偿,所述感知器模型输出的补偿值包括髋关节补偿值、膝关节补偿值和踝关节补偿值。与现有技术相比,本发明采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,提高鲁棒性,实现自适应控制,将补偿量分散到腿部所有关节,即踝关节、膝关节和髋关节,能够减小关节负荷,延长机器人使用寿命。
技术领域
本发明涉及控制技术领域,尤其是涉及一种基于感知器模型的机器人多关节自适应补偿方法和稳定器。
背景技术
仿人机器人稳定行走的实现一般包括两个部分,步态规划器和补偿稳定器。机器人在执行规划器生成的质心轨迹和步态时,由于机器人自身的模型误差和外界环境的干扰或扰动,其行走时的实际状态和目标步态往往会出现较大差异,机器人行走状态不再稳定甚至跌倒。所以,在机器人实际行走过程中需要设计稳定器,根据机器人的实际状态对规划参数做一定的补偿,以消除跟踪误差、对抗干扰,实现机器人持续的稳定行走。
由外界干扰或自身模型带来的跟踪误差主要体现在机器人质心误差和姿态误差两个方面。传统的质心补偿器和姿态控制器往往是通过踝关节或髋关节力矩控制,大型机器人还会通过控制腰关节来进行补偿,以消除跟踪误差,保持机器人行走姿态,抵抗外力或环境造成的干扰。关节补偿的大小通过近似模型推导或直接根据误差采用PID控制算法得到。
传统的踝关节或髋关节稳定器在仿人机器人行走稳定中有一定的作用,但其还存在着以下不足:
1)由于仿人机器人系统的非线性、强耦合、大滞后等特性,传统稳定控制器参数计算和整定困难,繁琐;
2)传统稳定控制器一般只适用于某种特定的干扰情况,适应性、鲁棒性差,参数固定,不能自我调节,无法应对复杂多变的环境;
3)当扰动较大时,单一的踝关节或髋关节稳定器对机器人关节负荷大,会缩减机器人使用寿命;
4)传统单关节稳定器补偿范围有限,无法应对较大干扰。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于感知器模型的机器人多关节自适应补偿方法和稳定器。
本发明的目的可以通过以下技术方案来实现:
一种基于感知器模型的机器人多关节自适应补偿方法,该方法包括以下步骤:
S1:基于机器人惯性传感器和步态生成器,获取误差数据;
S2:将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,并输出补偿值;
S3:基于补偿值对机器人进行运动补偿。
进一步地,所述步骤S2中,采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,该学习方式将无监督的Hebb学习和有监督的Delta学习规则结合,通过关联搜索对未知的外界做出反应和作用,神经元在监督信号T(k)的作用下对环境信息进行自组织来产生控制作用,并隐含着对神经元作用信号的评价,因此该学习策略能有效提高控制系统对环境的适应性,联想式学习策略的表达式为:
Δwij(k)=ηijT(k)Ii(k)Oj(k)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910892895.7/2.html,转载请声明来源钻瓜专利网。