[发明专利]一种基于卷积神经网络的机器人自主抓取方法有效
申请号: | 202010454612.3 | 申请日: | 2020-05-26 |
公开(公告)号: | CN111695562B | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 赵燕伟;周仙明;张健;吴耿育;王观龙 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/44;G06V10/774;G06V10/82;G06N3/04;G06T7/77;G06V20/10 |
代理公司: | 杭州天正专利事务所有限公司 33201 | 代理人: | 王兵;黄美娟 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 机器人 自主 抓取 方法 | ||
1.一种基于卷积神经网络的机器人自主抓取方法,其特征在于:包含以下步骤:
S1:构建基于多尺度特征的抓取检测模型,实现对抓取位姿的估计,具体包括:
S11:抓取检测模型特征提取部分的设计:特征提取部分以Darknet-53网络为基础,将SE模块嵌入到Darknet-53网络中的前四组残差结构中,使网络能够感知不同特征通道的重要程度,实现通道的自适应校准;将末端残差结构中的3×3的卷积替换为可变形卷积,使卷积核可以根据待抓取物体轮廓作为边界,而不是将感受眼局限于规则的矩形之中;
S12:抓取检测模型输出检测部分的设计:输出检测部分采用跨尺度预测的思想,抓取检测模型依次在三个尺度的特征图上进行抓取框的预测;抓取检测模型以五维向量抓取框的形式进行输出,抓取框定义为:
(1)
其中,表示抓取框的中心点;表示抓取框的长度和宽度;表示抓取框的方位角,将方向角的预测转化为分类与回归组合的问题,定义为:
(2)
其中,表示方向角的类别,,将方向角从依次划分成18个类别;表示方向角回归部分的具体角度,;
S13:抓取检测模型损失函数的设计:损失函数主要分为回归损失、分类损失和置信度损失;回归损失包含抓取框的定位损失以及方向角的回归部分的损失;其中抓取框的定位损失采用
(3)
其中表示每张图片预测的栅格数;表示每个栅格预测抓取框的数目;表示第
分类损失部分主要为方向角分类部分的损失,其损失函数采用
(4)
其中表示方向角分类部分的预测值,表示方角分类部分的真实值;
置信度为判断某个栅格内是否包含待抓取物体,同时也更好的让模型去区分前景区域与背景区域;置信度部分损失函数定义为:
(5)
其中表示预测出的置信度,表示真实的置信度;
总的损失函数
(6)
其中为回归损失部分的加权系数;为分类损失部分的加权系数;
S2:通过视觉传感器采集大量包含待抓取物体的场景信息,并作为训练的数据集;同时为了防止抓取检测模型过拟合借助迁移学习的思想对抓取检测模型进行训练,最终得到鲁棒性更强泛化能力更好的抓取检测模型;
S3:将抓取检测模型运用到实际检测过程中,将包含待抓取物体的场景图片输入到抓取检测模型中,并对输入图像进行预处理,使其符合抓取检测模型的输入要求;最终抓取检测模型预测得到待抓取物体在像素坐标系下的抓取位姿;预测的过程表示为:
(7)
其中,
S4:根据相机内参将像素坐标系下的抓取位姿转化到相机坐标系下,根据手眼参数将相机坐标系下的抓取位姿转化到机器人基坐标下,通过与末端执行器之间的坐标变化关系进一步得到末端执行器的抓取位姿,最后根据建立的机器人运动学模型,通过计算机器人逆运动学求解得到机器人各个关节的坐标,驱动各关节到达指定位置完成对物体的抓取;
实现从待抓取物体的像素坐标到机器人关节坐标的转化,需要经过3 次坐标变换和1次运动学求逆计算,假设将其统称为4 次变换,那么待抓取物体在像素坐标系下的抓取位姿到机器人关节坐标的映射函数表示为:
(8)
其中, 代表像素坐标系到相机坐标系的变换矩阵;代表相机坐标系到机器人基坐标系的变换矩阵;代表机器人基坐标系到机器人末端执行器位姿的变换矩阵;代表机器人末端执行器位姿到关节坐标的变换矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010454612.3/1.html,转载请声明来源钻瓜专利网。