[发明专利]一种基于深度学习的机器人轨迹规划方法有效
申请号: | 201910406713.0 | 申请日: | 2019-05-16 |
公开(公告)号: | CN110083160B | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 李建刚;钟刚刚;吴雨璁;苏中秋 | 申请(专利权)人: | 哈尔滨工业大学(深圳) |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 广州圣理华知识产权代理有限公司 44302 | 代理人: | 顿海舟;董觉非 |
地址: | 518055 广东省深圳市南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 机器人 轨迹 规划 方法 | ||
1.一种基于深度学习的机器人轨迹规划方法,其特征在于:包括机器人本体、所述机器人本体包括机器人控制系统,所述机器人控制系统包括轨迹规划模块、状态观测模块和智能学习模块,所述轨迹规划模块用于建立运动学模型和样条曲线规划;所述状态观测模块包括数据采集单元和加工执行单元,具体的轨迹规划方法包括如下步骤:
步骤一:所述轨迹规划模块使用DH参数建立机器人的运动学模型,设置机器人的运动学限制,并进行基础的轨迹规划,基础的轨迹规划采用B样条插值算法或多项式插值算法,对所述运动学模型中产生的轨迹规划数据进行滤波,滤波后得到基础规划轨迹;
步骤二:将基础规划轨迹作为机器人运动的参考轨迹让机器人运动起来,所述状态观测模块内的数据采集单元采集得到机器人的实际运行轨迹;将所述实际运行轨迹作为所述智能学习模块的输入,将所述基础规划轨迹作为所述智能学习模块的输出,训练所述智能学习模块后得到所述实际运行轨迹与所述基础规划轨迹之间的映射关系,所述智能学习模块采用深度神经网络进行学习;
步骤三:利用步骤二得到的映射关系,将理想轨迹输入给所述智能学习模块,使机器人按照所述智能学习模块输出的参考轨迹运动,并且,所述状态观测模块内的数据采集单元采集每个关节的位置、速度、加速度以及力矩;将每个关节的位置、速度、加速度作所述智能学习模块的输入,相对应的关节的力矩作为所述智能学习模块的输出;训练所述智能学习模块后得到每个关节的位置、速度、加速度和力矩的映射关系;
步骤四:利用步骤三生成的映射关系,得到机器人在实际运行轨迹的各个位置下的关节力矩大小,判断所述关节力矩是否超出限制,并且确定连续轨迹。
2.如权利要求1所述的一种基于深度学习的机器人轨迹规划方法,其特征在于:在所述步骤四确定连续轨迹后,所述智能学习模块使用强化学习Q-learning的轨迹优化方式将运行精度、运行平稳性以及运行速度按照权重定义奖励函数reward;位置误差为position_error,震动为jerk,运行速度为velocity,α,β是负数,γ是一个正值,对应的奖励函数如下:reward(i)=α*position_error+β*jerk+γ*velocity
将运行轨迹中的所有时间段的奖励函数值求和,得到整个的奖励函数值,其表达式如下:
然后对奖励函数进行训练使得Reward尽可能大,对奖励函数进行训练采用的方法是强化学习Q-learning方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学(深圳),未经哈尔滨工业大学(深圳)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910406713.0/1.html,转载请声明来源钻瓜专利网。