[发明专利]一种基于Yolov5和改进跟踪算法的双目相机测距方法在审
申请号: | 202210127102.4 | 申请日: | 2022-02-10 |
公开(公告)号: | CN114494462A | 公开(公告)日: | 2022-05-13 |
发明(设计)人: | 杨华;蒋立伟;檀生辉;吴勇;王东;谷涛涛;姜敏 | 申请(专利权)人: | 西安电子科技大学芜湖研究院 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06N3/04;G06N3/08;G01B11/14;G01C3/00 |
代理公司: | 芜湖思诚知识产权代理有限公司 34138 | 代理人: | 项磊 |
地址: | 241000 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolov5 改进 跟踪 算法 双目 相机 测距 方法 | ||
1.一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:包括下列步骤:
A、图像信息采集,从双目相机中分别获取图像信息作为输入;
B:双目相机标定与校正,对各个相机进行相机参数标定和双目校正;
C:目标跟踪与定位,采用Yolov5进行基本的目标检测识别,在基于识别的目标图像信息通过改进跟踪算法对目标进行跟踪和定位;
D:立体匹配与视差计算,对上一步得到的结果进行立体匹配,并进行视差计算;
E:实际距离计算,根据双目测距原理进行实际距离计算。
2.根据权利要求1所述的一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:所述步骤C的目标检测识别的流程包括,首先对双目相机提供的左、右相机图像信息,经过一系列图像预处理,然后输入训练后的Yolov5检测模型,通过该算法得到预测结果,然后进行结果后处理。而经过上述算法检测后得到的结果包括:目标类别、目标的ID以及根据自适应锚框确定的位置信息。
3.根据权利要求2所述的一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:所述Yolov5检测模型包括:
(1)Input输入端:在模型训练阶段进行图像预处理,包括Mosaic数据增强、自适应锚框计算、自适应图片缩放;
(2)Backbone基准网络:是分类器种的网络,包括Focus结构与CSP结构;
(3)Neck网络:位于基准网络和头网络的中间位置,目标检测网络在BackBone与最后的Head输出层之间插入了FPN+PAN结构;
(4)Head输出层:用来完成目标检测结果的输出,包括输出层在训练时的损失函数GIOU_Loss,以及预测框筛选的DIOU_hms。
4.根据权利要求3所述的一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:所述Yolov5检测模型中包含基本组件模块CBL、CSP1_X、CSP2_X、Focus、SPP,这些基本组件模块的具体内容如下所述:
(1)CBL模块,由Conv+BN+Leaky_relu激活函数组成;
(2)CSP1_X模块,由CBL模块、若干个Res unint模块以及卷积层Concat连接而成;Resunint模块用来构建深层网络;
(3)CSP2_X模块,由卷积层和若干个CBL模块Concat连接而成;
(4)Focus模块,Focus结构首先将多个slice结果Concat连接,然后将其送入CBL模块中;
(5)SPP模块,采用最大池化方式,进行多尺度特征融合。
5.根据权利要求2-4中任一所述的一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:所述步骤C中的跟踪定位方法包括:将目标检测识别得到的位置信息同时输入特征提取模块和轨迹预测模块,特征提取模块采用PPLCNet,通过单独的CNN深度学习模型进行特征提取,提取的特征向量参数不少于500个;而轨迹预测模块采用卡尔曼滤波算法,通过当前位置信息预测新的位置信息;将位置信息和特征向量参数结合,通过基于匈牙利算法的目标匹配模块对数据进行匹配,再以马氏距离算法进行相似度计算,以实现对ID的重新分配、跟踪和定位。
6.根据权利要求1所述的一种基于Yolov5和改进跟踪算法的双目相机测距方法,其特征在于:所述步骤B中,通过双目相机定标得出每个相机的内部参数,还需要通过标定来测量两个相机之间的相对位置,即右相机相对于左相机的旋转矩阵R、平移向量t,所述内部参数至少包括两个径向畸变的参数k1、k2,以及两个切向畸变的参数p1,p2。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学芜湖研究院,未经西安电子科技大学芜湖研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210127102.4/1.html,转载请声明来源钻瓜专利网。