[发明专利]一种基于单目视觉的路面标记实例化识别的方法在审
申请号: | 202110562775.8 | 申请日: | 2021-05-24 |
公开(公告)号: | CN113569620A | 公开(公告)日: | 2021-10-29 |
发明(设计)人: | 郑敏鹏 | 申请(专利权)人: | 惠州市德赛西威智能交通技术研究院有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 广东创合知识产权代理有限公司 44690 | 代理人: | 韩淑英 |
地址: | 516006 广东省惠州*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 目视 路面 标记 实例 识别 方法 | ||
1.一种基于单目视觉的路面标记实例化识别的方法,其特征在于,包括:
S1:取前视摄像头的rgb图像作为模型输入,基于深度学习算法,使用HarDNet网络结构作为模型的基本框架,构建二分类分支训练模块,对公开数据集中的数据进行模型预训练,获得初始模型model0参数;
S2:导入所述初始模型model0参数,构建多分类分支训练模块,并对公开数据集和自定义数据集中的数据进行训练,并输出模型model1参数;
S3:导入所述model1参数,新增实例化分支训练模块,并对所述公开数据集和自定义数据集中的数据进行训练,并输出模型model2参数;
S4:将路面标记实例化识别结果输出给车辆感知融合和车辆控制模块,用于辅助驾驶。
2.根据权利要求1所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述二分类分支训练模块,还包括:
收集所有路面标记有关的公开数据集,构建细分类别为背景和油漆两类数据集,采用二分类交叉熵损失函数,对所述公开数据作背景或油漆的二值语义分割训练。
3.根据权利要求2所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述二分类交叉熵损失函数,公式为:
;
其中,和分别对应所述背景和油漆两类数据集的预测得到的概率; 表示样本i的label, 正类为1,负类为0; 表示样本i预测为正的概率;N为样本的个数。
4.根据权利要求2所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述公开数据集至少包括构成涵盖各种场景的云端数据。
5.根据权利要求1所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述多分类分支训练模块,采用多分类交叉熵损失函数进行数据训练,公式为:
;
其中,M为类别的数量; 指示变量0或1,如果该类别和样本i的label相同则为1,否则为0; 表示对于观测样本i属于类别d的预测概率。
6.根据权利要求5所述的基于单目视觉的路面标记实例化识别的方法,其特征在于:所述类别至少包括车道线,可行驶区域,斑马线,停止线,箭头,减速线和导流线中的一种或几种。
7.根据权利要求1所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述实例化分支训练模块,还包括:
构建两个预测分支为实例数分支和实例特征分支,所述实例数分支使用Smooth L1损失函数;所述实例特征分支使用Discriminative损失函数。
8.根据权利要求7所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述Smooth L1损失函数,公式为:
;
其中, 指示预测值和真实值的差。
9.根据权利要求7所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,所述Discriminative损失函数,由variance, distance和regression 3个loss组成,具体公式为:
;
;
;
;
其中,;C表示特定某个类别的实例数目真值; 表示C实例包含的聚类单元数量;表示某个聚类单元的聚类特征值;表示C实例的聚类中心的特征值;表示L2范数;;表示聚类单元间的距离限制,用于表示约束所有的聚类单元与聚类中心的距离都要小于该值;表示各实例即聚类中心间的距离限制,用于表示约束所有的聚类中心间距离大于2倍的该值;A和B分别代表不同的目标类别;μcA表示A目标类别的C实例的聚类中心的特征值;μcB表示为B目标类别的C实例的聚类中心的特征值;cA: 表示A目标类别的实例数目真值;cB: 表示B目标类别的实例数目真值。
10.根据权利要求1所述的基于单目视觉的路面标记实例化识别的方法,其特征在于,实例化的结果为在驾驶过程中所采集的原图的基础上叠加所述实例化结果model2参数的合成图,并通过不同颜色对每一目标实例进行标志显示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于惠州市德赛西威智能交通技术研究院有限公司,未经惠州市德赛西威智能交通技术研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110562775.8/1.html,转载请声明来源钻瓜专利网。