[发明专利]一种基于自动驾驶场景的抗遮挡目标检测方法在审
申请号: | 202211068312.7 | 申请日: | 2022-09-02 |
公开(公告)号: | CN115761660A | 公开(公告)日: | 2023-03-07 |
发明(设计)人: | 刘寒松;王国强;王永;刘瑞;李贤超;谭连胜 | 申请(专利权)人: | 松立控股集团股份有限公司 |
主分类号: | G06V20/56 | 分类号: | G06V20/56;G06V10/82;G06V10/774;G06V10/40 |
代理公司: | 青岛高晓专利事务所(普通合伙) 37104 | 代理人: | 黄晓敏 |
地址: | 266000 山东省青岛市*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自动 驾驶 场景 遮挡 目标 检测 方法 | ||
1.一种基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,具体过程包括如下步骤:
(1)数据集构建:收集自动驾驶场景的车辆和行人图像,构建自动驾驶拥挤场景的目标检测数据集,并将数据集划分为训练集、验证集和测试集,其数量比为6:2:2;
(2)深度卷积特征提取:先对步骤(1)数据集中的图像尺寸和数值范围进行初始化处理,再将处理后的图像输入到主干网络中进行卷积特征提取,并使用特征金字塔提取多尺度特征用于检测近距离和远距离的不同尺寸的目标,输出多尺度特征集合;
(3)目标检测头:根据步骤(2)得到的多尺度特征集合,分别使用两个结构相同的但是不共享参数的全连接层子网络学习分类和位置信息,从而完成目标框类别分类和位置回归的任务,获得目标的坐标位置;
(4)多重距离边界框回归损失函数:使用多重距离边界框回归损失函数约束预测框和真实边界框之间的误差,并扩大预测框与其他目标的预测边界框之间的距离;
(5)软距离交并比-非极大抑制策略:使用软距离交并比-非极大抑制策略进行预测框筛选,预测框筛选过程中遵循预测距离交并比越大,置信度得分越低的原则筛除候选框,并考虑预测框中心点的重合度以及对置信度较低的预测框进行置信度衰减处理;
(6)训练网络结构,得到训练好的模型参数:使用数据集中训练集的图像,图像尺寸为5125123,按照每次训练需要的图像张数B依次输入到网络中,输出目标的分类置信度和回归坐标位置,其中Class为3,包含车辆、行人和背景三种类别,N是输出预测目标的数量,4为车牌朝向框的四个参数,再采用Focal损失算预测类别和真实类别得到误差,采用多重距离边界框回归损失函数来计算预测目标位置与真实目标位置的误差,并扩大与其他目标的误差,最终使用反向传播更新参数,经过60次完整训练集训练迭代后,保存验证集上结果最好的模型参数,作为最终模型训练好的参数,即得到训练好的自动驾驶场景目标检测网络参数;
(7)测试网络,输出目标位置和类别:加载步骤(6)训练好的模型参数,保持图片长短边比例不变的情况下将图像长边缩放到512,然后对图片的短边进行填充,使得图像尺寸为512512,作为网络的输入,最终输出目标的分类置信度和目标的坐标位置,并根据分类置信度得分和目标位置使用软距离交并比-非极大抑制删除冗余的框,其中设置为0.3,由此得到准确的目标检测框,实现基于自动驾驶场景的抗遮挡目标检测。
2.根据权利要求1所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(1)中数据集中的图像需标注待检测目标的位置和类别,其中目标位置用检测框来表示,表示目标的中心点,表示目标的长宽,目标类别包含车辆和行人。
3.根据权利要求2所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(2)中处理后的图像尺寸为512*512,数值范围归一化为0-1。
4.根据权利要求3所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(2)所述主干网络使用ResNet50网络。
5.根据权利要求4所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(3)所述目标框类别分类为分类置信度得分,位置信息为目标的四个检测参数 。
6.根据权利要求5所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(4)所述多重距离边界框回归损失函数为:
其中,
其中为预测框,为真实框,是欧几里得距离,是覆盖两个盒子的最小封闭盒子的对角线长度。
7.根据权利要求6所述基于自动驾驶场景的抗遮挡目标检测方法,其特征在于,步骤(5)的具体过程为:定义目标边界框输出列表;将每个预测框对应的置信度得分
其中,重复以上步骤直至
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于松立控股集团股份有限公司,未经松立控股集团股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211068312.7/1.html,转载请声明来源钻瓜专利网。