[发明专利]一种基于视觉的机械臂自主抓取方法有效

专利信息
申请号: 201910335507.5 申请日: 2019-04-24
公开(公告)号: CN110238840B 公开(公告)日: 2021-01-29
发明(设计)人: 成慧;蔡俊浩;苏竟成 申请(专利权)人: 中山大学
主分类号: B25J9/16 分类号: B25J9/16
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 陈伟斌
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明涉及机器人技术领域,更具体地,涉及一种基于视觉的机械臂自主抓取方法。提出了基于对抗抓取规则的纠正抓取策略,利用该策略可以实现在仿真平台进行试错抓取得到符合该规则的抓取样本。利用该方法采集的样本清晰的表达了对抗抓取规则的抓取模式,有利于模型的学习。整个数据采集过程无需人工干预,也无需任何真实数据,避免了真实数据采集可能带来的问题。只需要少量该方法采集的仿真数据,训练后的模型可以直接应用到不同的真实的抓取场景中。整个训练过程无需域自适应和域随机化操作,且准确率和鲁棒性高。
搜索关键词: 一种 基于 视觉 机械 自主 抓取 方法
【主权项】:
1.一种基于视觉的机械臂自主抓取方法,其特征在于,包括以下步骤:S1.在仿真环境中,搭建一个类似于现实场景的环境,并采集全局图像;S2.对数据进行处理,预处理后的数据包括:包含整个工作空间信息的全局图像、物体掩膜以及与全局图像相同尺度的标签图;处理过程包括:首先根据图像中物体所在像素的位置集合生成物体掩膜,再根据物体掩膜、抓取像素位置和抓取标签生成标签掩膜,以及用抓取位置和抓取标签生成标签图;然后根据抓取问题定义,对抓取角度进行离散化;S3.训练深度神经网络:(1)将输入RGB图进行归一化,然后合成一个批;(2)将该批数据传入全卷积神经网络,得到输出值;(3)根据结合标签掩膜的交叉熵误差,计算预测值与标签的误差,通过如下损失函数计算:其中Y为标签图,M为标签掩膜,表示最后一层卷积层的输出特征图;S4.将训练好的模型应用到真实抓取环境中。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910335507.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top