[发明专利]一种基于相机标定和视觉的机器狗障碍物测距和避障方法在审
申请号: | 202310756022.X | 申请日: | 2023-06-26 |
公开(公告)号: | CN116503491A | 公开(公告)日: | 2023-07-28 |
发明(设计)人: | 周云;吴巧云;谭春雨 | 申请(专利权)人: | 安徽大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/73;G06T7/60;G06V10/82 |
代理公司: | 南京有岸知识产权代理事务所(特殊普通合伙) 32757 | 代理人: | 王磊 |
地址: | 230601 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 相机 标定 视觉 机器 障碍物 测距 方法 | ||
1.一种基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,包括以下步骤:
S1:对机器狗上的相机进行相机标定,获取其相机的参数信息;
S2:利用目标检测算法对机器狗视觉图像中的目标进行检测和识别,确定目标的大小、位置和类别;
S3:结合相机的内部参数和外部参数以及目标在视觉图像中的位置信息来估算障碍物目标与机器狗之间的距离和角度;
S4:根据测算的距离和角度来决定机器狗是否继续前进或进行提前避障。
2.根据权利要求1所述的基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,所述S1具体包括以下步骤:
S11:利用相机上的摄像头采集图像,并获得多副标定板图像;
S12:建立机器狗相机的成像模型,计算单应性矩阵和内部参数。
3.根据权利要求2所述的基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,所述S12中建立机器狗相机的成像模型,包括:
从至少3副的不同视角采集多副标定板成像结果,检测出每副标定板成像结果中的特征关键点,确定每个关键点在标定板成像图像中的像素点位置坐标和在标定板中的位置坐标;
所述S12中计算单应性矩阵,包括:根据公式(a)和奇异值分解法来计算每幅图像的单应性矩阵,
(a);
其中,为尺度因子,一般取为1;和分别为像素点在成像图像中的二维坐标,和分别为关键点在标定板上的二维坐标;、和为构成单应性矩阵的三个向量;
所述S12中计算内部参数,包括:
设相机的内部参数为,外部参数为;
其中内部参数中的和为相机的焦距;是扭曲参数,一般取为0;和代表相机成像时方向和方向上的中心偏移量;
其中外部参数中的为旋转矩阵,为平移矩阵;旋转矩阵之间的关系如(b)所示:
(b);
单应性矩阵、内部参数和外部参数之间的关系如(c)和(d)所示:
(c);
(d);
根据求得的单应性矩阵,来计算尺寸为3*3的对称矩阵::
(e);
其中,表示矩阵转置,、、、、、、、、表示9个未知元素;
具体做法为:每张标定板可提供一个的约束关系,即确定两个约束方程(f):
(f);
由于矩阵中元素的对称性,求出矩阵的上三角部分中的6个未知元素即可,一般取3张标定板照片来计算得到对称矩阵;
根据求得的单应性矩阵和对称矩阵,结合公式(g)来计算相机的内部参数矩阵中的每个参数,其中是个取中间值的变量,具体过程如下:
(g)。
4.根据权利要求1所述的基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,所述S2还包括:在机器狗内部配置的主板上实现基于PicoDet的目标检测算法,同时对检测物体进行种类识别。
5.根据权利要求4所述的基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,所述基于PicoDet的目标检测算法,同时对检测物体进行种类识别,具体包括以下步骤:
S21:使用高性能的骨干网络来进行特征提取,包含SE模块和Ghost模块,并增加深度可分离卷积来对不同通道的信息进行融合;
S22:使用轻量级的Neck和Head网络来提高对不同尺度物体的检测效果;
S23:使用精准的SimOTA采样策略,随训练过程动态变换标签分配方式,通过在目标区域采集高质量的样本,来有效加速模型收敛。
6.根据权利要求1所述的基于相机标定和视觉的机器狗障碍物测距和避障方法,其特征在于,所述S3中障碍物目标与机器狗之间的距离估算公式为:
(h);
其中:机器狗相机的焦距为式(g)中的和,被测物体的宽度为,高度为,相机拍摄图像中被测物体所占像素值的宽度为,高度为;
所述S3中障碍物目标与机器狗之间的角度估算公式为:
(i);
(j) ;
其中:假定目标在视觉图像中的位置中心点处的像素点坐标为,相机成像的中心点处的像素点坐标为,这两种中心点处的实际距离为,则角度可由式(i)-(j)计算得到。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽大学,未经安徽大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310756022.X/1.html,转载请声明来源钻瓜专利网。