[发明专利]一种基于平面视觉深度强化学习的机械臂抓取控制方法在审
申请号: | 202110911169.2 | 申请日: | 2021-08-10 |
公开(公告)号: | CN113524196A | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 许虹;顾兢兢;沈湘洮 | 申请(专利权)人: | 南京深一科技有限公司 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 南京君陶专利商标代理有限公司 32215 | 代理人: | 李国政 |
地址: | 210039 江苏省南京市雨*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 平面 视觉 深度 强化 学习 机械 抓取 控制 方法 | ||
1.一种基于平面视觉深度强化学习的机械臂抓取控制方法,包括机械臂,其特征在于:所述机械臂通过马尔可夫决策过程建立深度强化学习模型,所述机械臂根据当前获取到的状态图像决定行为决策,与过去的状态图像无关,将其转换为数学模型,将机械臂的目标物体进行随机摆放,所述机械臂寻找目标点的过程的动作采用随机连续抓取,所述机械臂输出的动作放在数组Q,所述机械臂的控制包括采用深度确定性梯度算法,所述机械臂基于单目摄像头拍摄的图片作为输入,通过先进的ViT算法对图片进行特征提取,对Mask区域采用像素级的颜色阈值划分。
2.根据权利要求1所述的一种基于平面视觉深度强化学习的机械臂抓取控制方法,其特征在于:所述深度确定性梯度算法包括采用Actor-Critic框架,由4个神经网络组成,2个结构相同的网络,分别是Actor网络和Critic网络,Actor网络选出动作网络,输入状态,输出动作,Critic网络评价动作网络,输入状态,输出Q,目标值与估计Q值的差,进行梯度计算,其结果作为误差,用误差影响动作的输出能获得更大奖励的动作。
3.根据权利要求2所述的一种基于平面视觉深度强化学习的机械臂抓取控制方法,其特征在于:所述奖励稀疏所导致导致强化学习困难的原因,将奖励稀疏的失败探索原因和经历构建为一个经验池,采用后视经验回放HER方法。
4.根据权利要求1所述的一种基于平面视觉深度强化学习的机械臂抓取控制方法,其特征在于:所述机械臂的程序每次初始化,所述机械臂的输出的动作都是随机的,所述机械臂抓取的物体是目标物体,则获取相应奖励,否则奖励为零。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京深一科技有限公司,未经南京深一科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110911169.2/1.html,转载请声明来源钻瓜专利网。