[发明专利]一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法在审
申请号: | 202111443534.8 | 申请日: | 2021-11-30 |
公开(公告)号: | CN114119574A | 公开(公告)日: | 2022-03-01 |
发明(设计)人: | 饶元;罗庆;江朝晖;张武;金秀;李绍稳;朱军 | 申请(专利权)人: | 安徽农业大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/73;G06T17/00 |
代理公司: | 安徽知问律师事务所 34134 | 代理人: | 代群群 |
地址: | 230036 *** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 采摘 检测 模型 构建 方法 定位 | ||
1.一种基于机器视觉的采摘点检测模型构建方法,其特征在于,所述方法包括:
S110:获取待采摘目标围绕待采摘本体树冠拍摄的多组RGB图像和多组深度图像数据;
S120:根据视角映射算法将多组所述深度图像与多组所述RGB图像对齐,并生成基于所述采摘目标的第一点云集合;
S130:基于三维重建方法,获取所述采摘本体树冠层的第二点云集合;
S140:将所述第一点云集合作为训练集,将所述第二点云集合作为测试集和验证集,采用Alpha-IoU3D作为VoteNet网络的边框损失函数,训练VoteNet网络,得到用于检测采摘目标的采摘点检测模型。
2.根据权利要求2中所述的一种基于机器视觉的采摘点检测模型构建方法,其特征在于,所述步骤S110还包括:
利用中值滤波算法去除所述深度图像中的噪声,将RGB图像和深度图像裁切至适应尺寸;保留所述RGB图像和所述深度图像的完整深度信息。
3.根据权利要求1中所述的一种基于机器视觉的采摘点检测模型构建方法,其特征在于,所述步骤S120包括:
以所述RGB图像为参考视角,利用视角映射算法将所述深度图像与所述RGB图像对齐并生成基于采摘目标第一点云集合。
4.根据权利要求3中所述的一种基于机器视觉的采摘点检测模型构建方法,其特征在于,根据视角映射算法将多组所述深度图像与多组所述RGB图像对齐,其步骤为:
将所述RGB图像像素坐标系中的像素点(u,v)转换到RGB相机坐标系(xc,yc,zc)中,公式为:
其中,(xrgb,yrgb,zrgb)为所述RGB图像各像素在相机坐标系中的坐标,fx、fy、cx和cy为深度相机RGB镜头内参;
计算深度相机坐标系到RGB相机坐标系转换的欧式变换矩阵,公式为:
其中,Rw2rgb、Tw2rgb分别为世界坐标系转换到RGB相机坐标系的旋转矩阵、平移矩阵;Rw2d、Tw2d分别为世界坐标系转换到深度相机坐标系的旋转矩阵、平移矩阵,所述深度相机坐标系为深度相机的深度镜头坐标系;
将所述深度图像映射到RGB图像,其公式为:
其中,Krgb和Kd分别为RGB相机内参和深度相机内参,表示为深度图像在像素坐标系的坐标,z表示在Z轴上归一化,Td2rgb表示深度相机坐标系转换到RGB相机坐标系的平移矩阵;所述深度相机内参为深度相机深度镜头内参;
且利用深度图像和RGB图像生成点云的公式为:
Ptsw=∑(xw,yw,zw)
其中,(xw,yw,zw)为深度图像结合RGB图像所生成点云在世界坐标系下点的坐标,(ud,vd)表示深度图像像素点;zd表示像素点(ud,vd)在深度图像中的深度值;zw表示深度图像结合RGB图像所生成点云中的一点在z轴上的距离。
5.根据权利要求1中所述的一种基于机器视觉的采摘点检测模型构建方法,其特征在于,所述步骤S140包括:
标注采摘本体的树冠层的点云,根据采摘目标的采摘标准,将标注区域分为多个标签;
其中,标注方式为通过三维立体框框选采摘目标的采摘区域,使采摘目标的采摘点位于所述三维立体框底面中心,确定为采摘目标的采摘点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽农业大学,未经安徽农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111443534.8/1.html,转载请声明来源钻瓜专利网。