[发明专利]机器人力控方法、装置、电子设备及可读存储介质在审
申请号: | 202211385160.3 | 申请日: | 2022-11-07 |
公开(公告)号: | CN115922696A | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 王岩 | 申请(专利权)人: | 法奥意威(苏州)机器人系统有限公司 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 杜杨 |
地址: | 215000 江苏省苏州*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器 人力 方法 装置 电子设备 可读 存储 介质 | ||
1.一种机器人力控方法,其特征在于,所述方法包括:
获得预先训练好的目标动态运动基元DMP模型,其中,所述目标DMP模型基于DMP及迭代学习控制ILC算法根据目标期望接触力及目标类型的轨迹训练得到,ILC算法用于学习向DMP模型输入的控制信号,该控制信号作为DMP模型中的与实际接触力相关的耦合项,该控制信号使得DMP模型生成的轨迹跟踪所述目标期望接触力;
利用所述目标DMP模型规划出所述目标类型的目标轨迹,以实现对所述目标期望接触力的跟踪。
2.根据权利要求1所述的方法,其特征在于,所述目标DMP模型通过以下方式训练得到:
获得基于DMP及所述目标类型的轨迹训练得到的第一DMP模型;
向所述第一DMP模型中添加与实际接触力相关的耦合项,得到第二DMP模型,其中,所述耦合项包括速度耦合项;
基于ILC算法,利用所述第二DMP模型进行轨迹规划,获得规划出的各轨迹点的实际接触力,根据各轨迹点的实际接触力及所述目标期望接触力,迭代计算和更新当前耦合项,作为下一次轨迹规划时所述第二DMP模型的耦合项,直到满足迭代停止条件。
3.根据权利要求2所述的方法,其特征在于,所述向所述第一DMP模型中添加与实际接触力相关的耦合项,得到第二DMP模型,包括:
向所述第一DMP模型中添加速度耦合项及加速度耦合项,得到所述第二DMP模型。
4.根据权利要求2所述的方法,其特征在于,所述基于ILC算法,利用所述第二DMP模型进行轨迹规划,获得规划出的各轨迹点的实际接触力,根据各轨迹点的实际接触力及所述目标期望接触力,迭代计算和更新当前耦合项,包括:
在每次迭代中,获得所述第二DMP模型规划出的各轨迹点的实际接触力,并根据所述目标期望接触力及所述各轨迹点的实际接触力,得到本次迭代的力误差序列;
根据本次迭代的力误差序列及历史迭代的力误差序列,计算得到速度耦合项;
根据得到的速度耦合项,更新当前耦合项。
5.根据权利要求4所述的方法,其特征在于,基于ILC算法进行迭代更新的迭代公式为:
其中,i表示迭代次数,Fe,i(t)表示第i次迭代中目标期望接触力Fd与实际接触力Fi的误差序列,Q、L、c3表示常数,Ci(t)表示第i次迭代中的速度耦合项,t表示轨迹点对应的时刻。
6.根据权利要求2-5中任意一项所述的方法,其特征在于,所述获得基于DMP及所述目标类型的轨迹训练得到的第一DMP模型,包括:
采集得到所述目标类型的示教轨迹信息,其中,所述示教轨迹信息中包括各轨迹点的位置、速度及加速度;
根据预设的初始DMP模型及所述示教轨迹信息,获得所述目标类型对应的非线性力项;
根据所述目标类型对应的非线性力项及初始DMP模型,得到所述第一DMP模型。
7.一种机器人力控装置,其特征在于,所述装置包括:
模型获得模块,用于获得预先训练好的目标动态运动基元DMP模型,其中,所述目标DMP模型基于DMP及迭代学习控制ILC算法根据目标期望接触力及目标类型的轨迹训练得到,ILC算法用于学习向DMP模型输入的控制信号,该控制信号作为DMP模型中的与实际接触力相关的耦合项,该控制信号使得DMP模型生成的轨迹跟踪所述目标期望接触力;
轨迹规划模块,用于利用所述目标DMP模型规划出所述目标类型的目标轨迹,以实现对所述目标期望接触力的跟踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于法奥意威(苏州)机器人系统有限公司,未经法奥意威(苏州)机器人系统有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211385160.3/1.html,转载请声明来源钻瓜专利网。