[发明专利]基于机器视觉识别的产品智能装配方法在审
申请号: | 201911330665.8 | 申请日: | 2019-12-20 |
公开(公告)号: | CN111191546A | 公开(公告)日: | 2020-05-22 |
发明(设计)人: | 何智成;王振兴;胡朝辉;宋凯 | 申请(专利权)人: | 广西柳州联耕科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T7/00;G06T7/80;G06T7/70 |
代理公司: | 长沙惟盛赟鼎知识产权代理事务所(普通合伙) 43228 | 代理人: | 姚亮梅 |
地址: | 545000 广西壮族自治区*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 机器 视觉 识别 产品 智能 装配 方法 | ||
本发明采用了深度学习与传统数字图像处理相结合的方法,该方法综合考虑检测的精度与检测速度,首先采用了深度学习的目标检测算法能够在复杂环境中检测出物体的粗略位置信息,然后把检测出的位置当作感兴趣区域,进行图像处理检测出更加精确的目标轮廓信息。本发明也对基于深度学习的目标检测方法进行了改进使得检测速度、检测精度有所提升、对车间硬件要求大大降低,降低了生产成本。综上,本发明大大提升了零件的装配效率与装配精度,减少因为零件位置发生偏移装配失败的情况。
技术领域
本发明属于汽车生产技术领域,具体涉及基于机器视觉识别的产品智能装配方法。
背景技术
汽车生产过程中有很多零件需要装配。传统的手工装配需要大量的人力、物力生产效率低下,已经不能满足当前的自动化生产。目前常见的自动化零件装配生产线大多是对机器人进行示教,然后在固定的位置对零件进行装配。但是零件传送到固定位置时难免会出现位置偏差,这时候根据固定的机器人示教位置装配零件会导致装配失败,甚至对零件造成损害。为了解决这一问题本发明采用计算机视觉的方法多待装配零件的装配位置进行定位,然后根据定位位置引导机器人进行装配。目前常用的目标定位方法大致分为基于图像处理的检测方法、基于深度学习的目标检测方法。基于图像处理的目标检测方法如果对整幅图片的所有信息直接处理那么噪声很多,受环境噪声影响太大,在噪声过多的情况下容易检测失败。基于深度学习的目标检测方法鲁棒性好,常见的基于深度学习的目标检测方法有R-CNN系列,YOLO,SSD等等。但是基于深度学习的目标检测方法虽然更能够适应光照条件恶劣的环境,但是由于卷积神经网络的位置不敏感的特性使得基于深度学习的目标检测方法相对于图像处理、边缘检测,其检测精度较为粗糙、不够精确。基于深度学习语义分割方法虽然定位精度高,但是语义分割所需要的计算机GPU资源要求高,而且检测速度更慢,很难满足车间生产的实时性,而且零件装配需要较高的检测精度。
因此本发明首先用深度学习的目标检测方法进行目标位置检测得到了一个不够精确的位置,然后对检测位置区域稍作放大,作为感兴趣区域,这样就使得噪声大幅减少,之后把感兴趣区域进行图像处理检测,得到待装配目标的精确位置。
另一方面零件装配生产线需要自动化的自动装配设备,然而普通的机器人示教方法位置是固定的,当零件位置稍微出现偏差时,自动装备会出现装配失败、损坏装配零件的情况。本发明为了解决这一问题引入了计算机视觉方法对机器人进行引导,保证零件装配的顺利进行。本发明结合了深度学习和图像处理方法以保证零件装配位置能够顺利检测。
发明内容
针对以上技术问题,本发明提供基于机器视觉识别的产品智能装配方法,包括如下步骤:
1、基于机器视觉识别的产品智能装配方法,包括如下步骤:
(1)模型改进及训练:
1.1、首先我们采用focal loss、ShuffleNetV2对YOLOv2进行改进及优化得到新的目标检测模型;
1.2、采用相机在生产车间对待装配的工件进行拍照,获得5000张图片,然后采用目标检测标注工具对采集的5000张图片进行标注获得工件在图片中的位置信息;
1.3、将制作好的数据集进行旋转、裁剪、缩放、平移、增加噪声等方法对数据集进行数据增强以获得更多的数据;
1.4、将增强之后的数据按照4:1分为训练集和验证集,训练集送入改进的目标检测模型,设置训练的批次大小为32,学习率为10-3,训练步长为100000步,在本地计算机上进行训练,在验证集上验证,调节超参数优化模型;
(2)相机标定:为了得到像素坐标与机器人坐标之间的转换关系,我们在拍照点进行相机标定得到坐标变换矩阵;
(3)装配位置检测:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广西柳州联耕科技有限公司,未经广西柳州联耕科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911330665.8/2.html,转载请声明来源钻瓜专利网。