[发明专利]基于深度学习的机械臂目标检测感知定位方法、设备、存储介质和产品在审
申请号: | 202310392860.3 | 申请日: | 2023-04-13 |
公开(公告)号: | CN116543039A | 公开(公告)日: | 2023-08-04 |
发明(设计)人: | 赵振廷;朱益民;纪小宇;肖广洲;张瑞先;韩成哲;丁一航 | 申请(专利权)人: | 哈尔滨工业大学人工智能研究院有限公司 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;B25J9/16;G06T3/00;G06V10/82;G06N3/084 |
代理公司: | 哈尔滨市阳光惠远知识产权代理有限公司 23211 | 代理人: | 张宏威 |
地址: | 150028 黑龙江省哈尔滨市松北区智*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 机械 目标 检测 感知 定位 方法 设备 存储 介质 产品 | ||
1.一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,所述方法包括:
步骤1、建立关键点模型神经网络,具体包括:
步骤1.1、使用基于YOLOv5的目标检测算法的主干检测网络,设计全新的神经网络检测回归模块,使所述关键点模型神经网络的收敛对象为目标物体的最小外接多边形,即为目标物体对应图像中的若干个关键点,所述若干个为四个以上;
步骤1.2、加入Wing Loss回归损失函数来进行图像关键点回归,使得网络可以收敛得到所述若干个关键点的图像坐标;
步骤2、通过所述关键点模型神经网络中对深度相机的RGB图像进行检测,得到目标物体在RGB图像中的若干个关键点位置;
将RGB图像与深度相机的深度模块输出的深度图像进行图像配准,经过图像配准后可以得到其在深度图像中的位置,从而得到目标物体相对于相机的三维坐标位置;
得到物体的若干个点的三维坐标位置后,得到物体的尺寸信息;
步骤3、得到物体相对于相机的世界坐标位置后,经过坐标转换后即可得到物体相对于机械臂本体的坐标。
2.根据权利要求1所述的一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,所述全新的神经网络检测回归模块的回归公式为:
其中,bx,by表示神经网络后处理检测头得到的检测框的中心点像素位置;tx,ty,为预测目标中点位置坐标;Pw,Ph,Px,Py为每个像素点的先验锚框的宽,高与中心点坐标;cx,cy为每个像素点在特征图中的坐标。
3.根据权利要求1所述的一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,所述Wing Loss回归损失函数为:
其中,x代表标签与预测点之间的距离误差;w为损失函数非线性范围限制参数;∈为约束非线性区域的曲率;C是常数,用于平滑连接损失函数的线性区域与非线性区域。
4.根据权利要求1所述的一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,在步骤1之后,还包括:
将所述关键点模型神经网络训练得到的权重文件导出为ONNX和OpenVino格式的权重文件,使用OpenVino加速包进行所述关键点模型神经网络的部署。
5.根据权利要求1所述的一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,步骤2,具体包括:
使用深度相机的RGB图像作为神经网络的输入,将RGB图像与深度相机输出的深度图像进行图像配准即可得到目标点的三维坐标位置:
步骤2.1、使用深度相机进行定位,通过目标检测算法找到物体的四个关键点和中心点,然后使用图像配准进行测距,配准过程的公式为:
其中,LR表示左相机内参矩阵,RR表示右相机内参矩阵,M表示左相机到右相机的外参变换矩阵,W为RGB图像坐标系到深度图像坐标系转化矩阵;
步骤2.2、算得深度图像中的若干个关键点位置即为:
其中,uL,vL为关键点在左边相机中的位置,uR,vR为关键点在右边相机中的位置,zL该目标距离相机中心的距离;
步骤2.3、通过配准后即可得到目标点在深度图像中的坐标,由深度图像即可得到目标点对应到世界坐标系下的三维坐标,即可得到物体的尺寸与位置,所述目标点为根据四个关键点计算的目标位置的中心点。
6.根据权利要求1所述的一种基于深度学习的机械臂目标检测感知定位方法,其特征在于,步骤3,还包括:
步骤3.2、当针对多个目标的情况,利用轨迹匹配算法进行处理时,通过对当前帧目标的信息与目标的历史信息的对比来判断目标的轨迹与优先级。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学人工智能研究院有限公司,未经哈尔滨工业大学人工智能研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310392860.3/1.html,转载请声明来源钻瓜专利网。