[发明专利]用于四自由度并联机器人立体视觉手眼系统的在线手眼标定和抓取位姿计算方法有效
申请号: | 201910446270.8 | 申请日: | 2019-05-27 |
公开(公告)号: | CN110276806B | 公开(公告)日: | 2023-06-09 |
发明(设计)人: | 高国琴;张千 | 申请(专利权)人: | 江苏大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/70;G06T1/00;B25J9/16 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 212013 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 自由度 并联 机器人 立体 视觉 手眼 系统 在线 标定 抓取 计算方法 | ||
1.一种用于四自由度4-R(2-SS)并联机器人立体视觉手眼系统的在线手眼标定和抓取位姿计算方法,其特征在于,包括如下步骤:
(1)具有运动误差补偿的立体视觉Eye-to-hand模型改进:构建相机固定在机器人本体外的Eye-to-hand手眼基础模型,以及手眼系统中基于非线性畸变的立体视觉模型,同时,根据相机间位姿关系构建立体视觉中各相机与机器人的手眼模型组,以改进单相机的Eye-to-hand基础模型;并对改进后的Eye-to-hand模型进行机器人运动误差补偿;
(2)基于垂直分量修正的Eye-to-hand模型求解:根据各相机获取的机器人多次运动的标定数据,基于并联机器人中标定板和末端夹持机构的垂直约束对手眼标定位姿参数中的垂直分量进行修正,实现对具有旋转运动约束的四自由度4-R(2-SS)并联机器人的手眼标定中所有位姿和运动误差的准确求取;
(3)基于Eye-to-hand模型非平凡解约束的4-R(2-SS)并联机器人标定运动规划:基于末端夹持机构标定运动间的位姿关系,构建Eye-to-hand模型的非平凡解约束,用于剔除标定运动中的无效位姿,以规划并联机器人末端夹持机构的手眼标定运动,实现高精度高效率的四自由度4-R(2-SS)并联机器人在线手眼标定;
(4)基于立体视觉和4-R(2-SS)并联机器人的抓取位姿计算:采用基于手眼标定获取的机器人运动误差构建具有误差补偿的并联机器人抓取模型,同时,基于立体视觉模型计算相机坐标系下对象的最优抓取位姿,基于并联机器人运动学方程计算末端夹持机构在并联机器人基础坐标系下的当前位姿,并结合抓取模型和在线手眼标定得到的相机基础坐标系在并联机器人基础坐标系下的位姿,计算末端夹持机构当前位姿与最优抓取位姿之间的转换矩阵,实现基于立体视觉和4-R(2-SS)并联机器人的末端夹持机构的抓取位姿计算。
2.根据权利要求1所述的一种用于四自由度4-R(2-SS)并联机器人立体视觉手眼系统的在线手眼标定和抓取位姿计算方法,其特征在于:步骤(1)中,所述的具有运动误差补偿的立体视觉Eye-to-hand模型改进,具体如下:
2.1,立体视觉Eye-to-hand模型组的构建与改进
基于双目标定结果,结合彩色相机和红外相机的相对位姿对Eye-to-hand基础模型AX=XB进行改进,首先对彩色相机和红外相机分别进行建模,可以得到:
其中,A为标定板的位姿变化关系,B为末端夹持机构的位姿变化关系,X为并联机器人基础坐标系与相机坐标系的位姿关系,分别表示标定板在红外相机坐标系和彩色相机坐标系下的位姿变化关系,Xd=dHw,Xc=cHw,dHw和cHw分别表示并联机器人基础坐标系在红外相机坐标系和彩色相机坐标系下的位姿,dHb(i+1)和dHbi分别表示在第i+1次和第i次机器人标定运动下标定板坐标系在红外相机坐标系下的位姿,cHb(i+1)和cHbi分别表示在第i+1次和第i次机器人标定运动下标定板坐标系在彩色相机坐标系下的位姿,基于立体视觉模型对式(1)进行变换,得到改进后的立体视觉Eye-to-hand模型组:
其中,cHd为彩色相机和红外相机间的刚体齐次变换矩阵;
2.2,具有运动误差补偿的Eye-to-hand模型改进
手眼标定误差主要来源于机器人运动误差引起的末端夹持机构坐标系在并联机器人基础坐标系下的位姿误差以及标定板坐标系在相机坐标系下的位姿误差,运动误差可以视为由机器人各坐标系微分变换所造成,可基于机器人微分运动模型进行推导,机器人的微分运动可认为由微分转动R(δx,δy,δz)和微分移动T(dx,dy,dz)组成,其中δx,δy,δz分别表示绕x,y,z轴的旋转角度,dx,dy,dz分别表示沿x,y,z轴方向的平移,将微分运动dH考虑到末端夹持机构的运动中,可以得到新的位姿矩阵H+dH,其中dH可基于式(3)进行计算;
设标定板在相机坐标系下的微分运动为ΔA,末端夹持机构在并联机器人基础坐标系下的微分运动为ΔB,基于微分运动对基于立体视觉改进后的Eye-to-hand模型进行并联机器人运动误差补偿,可得具有机器人运动误差补偿的Eye-to-hand模型:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏大学,未经江苏大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910446270.8/1.html,转载请声明来源钻瓜专利网。