[发明专利]基于3D视觉的智能机器人抓取方法在审
申请号: | 201911349363.5 | 申请日: | 2019-12-24 |
公开(公告)号: | CN111243017A | 公开(公告)日: | 2020-06-05 |
发明(设计)人: | 雷渠江;徐杰;梁波;李秀昊;刘纪;邓云甫;王卫军;韩彰秀 | 申请(专利权)人: | 广州中国科学院先进技术研究所 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/80;G06T7/90;G06N3/04;G06N3/08 |
代理公司: | 广州容大专利代理事务所(普通合伙) 44326 | 代理人: | 刘新年 |
地址: | 511458 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视觉 智能 机器人 抓取 方法 | ||
1.一种基于3D视觉的智能机器人抓取方法,其特征在于,包括:
步骤1,完成智能抓取系统的手眼标定;
步骤2,完成基于卷积神经网络的抓取规划模型的训练;
步骤3,完成智能智能机器人在真实环境下的抓取。
2.根据权利要求1所述的基于3D视觉的智能机器人抓取方法,其特征在于,所述步骤1的流程具体包括:
搭建所述智能抓取系统,所述智能抓取系统包括Kinect-2.0、YuMi机器人及计算机;所述Kinect-2.0用于作为视觉传感器采集3D视觉数据,所述计算机与所述Kinect-2.0、所述YuMi连接,以完成抓取规划模型训练,并控制所述YuMi机器人实现抓取;
所述Kinect-2.0利用3D相机获取待抓取目标三维6DOF的姿态点云数据;
采用眼在手外的手眼标定方式;
对所述待抓取目标三维6DOF的姿态点云数据进行标定,完成3D相机与所述YuMi机器人的数据互联,以得到相机坐标系和机器人坐标系的参数转换。
3.根据权利要求2所述的基于3D视觉的智能机器人抓取方法,其特征在于,所述采用眼在手外的手眼标定方式,包括以下步骤:
标定3D相机的深度图像坐标系与红外相机坐标系求解齐次变化矩阵;
将标定板放在固定位置,读取标定板角点在深度图像中的坐标并将其转换为红外坐标系下坐标记录数据;
控制机器人手臂移动至该坐标记录数据在机器人坐标系之下XYZ;
反复上述流程采集多组公共点数据,使用迭代最近点算法求解出三维坐标系旋转偏移矩阵;
利用前面得到的相机参数完成抓取目标三维点云数据的配准。
4.根据权利要求3所述的基于3D视觉的智能机器人抓取方法,其特征在于,深度图像坐标系与红外坐标系的关系为:
其中,OdXdYdZd坐标系表示红外相机坐标系,OoUdVd坐标系表示深度图像坐标系,O1XY为红外相机成像平面坐标系,其X轴与Ud轴平行,Y轴与Vd平行,原点O1的坐标为坐标系OdXdYdZd坐标原点是红外相机的光心;
其中,P(ud,vd)为深度图像坐标系上一点,在红外坐标系相对应的点为P(xd,yd,zd),fx与fy表示红外相机的焦距,与表示图像坐标系的中心点坐标。
5.根据权利要求3所述的基于3D视觉的智能机器人抓取方法,其特征在于,机器人坐标系与3D相机的深度坐标系的转换模型为:
其中,[XR YR ZR]表示YuMi机器人坐标系的点坐标,[XK YK ZK]为3D相机的深度坐标系,λ为两个坐标系尺度比例因子,为坐标系平移增量。
6.根据权利要求2所述的基于3D视觉的智能机器人抓取方法,其特征在于,所述步骤2的流程,包括:
对深度图像数据进行预处理操作去除采集过程中产生的噪声;
将预处理后的点云数据输入到全卷积网络FCN中,完成3D物体识别,并得到初步的候选抓取区域坐标;
基于深度强化学习的C空间自主路径规划及实时避障;
将前面生成的候选抓取区域坐标和C空间路径在仿真环境下依据深度强化学习DQN理论进行循环试错运行,直到抓取策略足够稳定后,将深度强化学习训练后的抓取策略输出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州中国科学院先进技术研究所,未经广州中国科学院先进技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911349363.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种芳纶纸蜂窝涂胶缺陷检测方法
- 下一篇:一种基于云计算的区块链人机交互系统