[发明专利]一种车道线动态检测和车道分界线的拟合方法在审
申请号: | 201910848177.X | 申请日: | 2019-09-09 |
公开(公告)号: | CN110569796A | 公开(公告)日: | 2019-12-13 |
发明(设计)人: | 李志斌 | 申请(专利权)人: | 南京东控智能交通研究院有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06N3/04;G06N3/08 |
代理公司: | 11676 北京华际知识产权代理有限公司 | 代理人: | 张文杰 |
地址: | 211169 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 车道线 车道线检测 航拍 拟合 抛物线方程 检测 视频 最小二乘法拟合 车道分界线 动态检测 方程拟合 基于条件 提取图像 点坐标 色像素 视频帧 图像帧 对抗 准确率 网络 并用 验证 测试 | ||
1.一种车道线动态检测和车道分界线的拟合方法,其特征在于包括如下步骤:
S1、提取道路航拍录像的视频帧,选取部分原始视频帧,并在原始视频帧上采用区别色彩人工描绘车道线后与原始视频帧共同作为生成对抗网络的训练集;
S2、基于步骤S1中得到的图像集训练生成对抗网络的图对图翻译模型,获得模型的最优实验参数及生成器和判别器的训练参数;
S3、将未标记车道线的视频帧作为测试集,用步骤S2中训练得到的图对图翻译模型检测测试集,输出车道线的检测结果;
S4、根据像素点的颜色识别S3得到的不同车道线上点的坐标,采用最小二乘法拟合车道线曲线得到车道线的三次抛物线方程。
2.根据权利要求1所述的所述车道线动态检测和车道分界线的拟合方法,其特征在于,步骤S1的训练集的提取步骤为:
S11、提取道路航拍录像的视频帧,选取部分视频帧作为训练集的输入图像;
S12、人工描绘车道线,选取区别于视频中所含其他特殊颜色为车道颜色,作为基于条件对抗网络的图像转换算法得到具有车道线的输出图像。
3.根据权利要求1所述的所述车道线动态检测和车道分界线的拟合方法,其特征在于,步骤S2具体包括如下步骤:
S21、设置学习率以及损失函数权重;
S22、学习输入图像,更新判别器,判别器可以对生成的图像和原始的未标记车道线的图像分类,该判别器被训练成尽可能地检测发生器的“假”,首先从样本集中随机采样,然后用样本所含信息更新判别器的参数;
S23、学习输入图像,更新生成器G,生成模型采用生成对抗网络,学习从随机噪声向量z到输出图像y的映射,G:z→y,随机噪声相当于低维的数据,经过生成器G的映射变为一张生成的图像;相反,条件生成对抗网络学习从观察图像x和随机噪声矢量z到y,G:{x,z}→y的映射;训练生成器G以产生不能通过对侧训练的判别器D与“真实”图像区分的输出,首先从样本集中随机采样,然后用样本所含信息更新生成器参数,生成输出图像,即标记车道线的图像;
S24、梯度下降1次更新判别器中参数,继续生成输出图像;
S25、梯度下降1次更新生成器中参数,继续对生成的图像和真实的图像分类;
S26、重复步骤S23、S24,直到基于条件对抗的深度网络收敛,此时判别器的输出接近1/2,判别网络无法分辨生成的图像和原始的未标记车道线的图像;
S27、用训练完的基于条件对抗的深度网络实现测试集图像的车道线检测,生成输出图像。
4.根据权利要求3所述的所述车道线动态检测和车道分界线的拟合方法,其特征在于,生成网络采用条件生成对抗网络作为训练框架,U-Net作为生成器的网络结构,加入L1损失参数,网络输入包含观察图像x和随机噪声z;条件生成对抗网络的目标函数表示为:
LcGAN(G,D)=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z))];
其中G的目标是最小化目标函数,D的目标是最大化目标函数;目标函数为min-max博弈,优化后的公式为:
L1重建损失函数的公式如下;
LL1(G)=Ex,y,z[||y-G(x,z)||1]。
最终生成网络的目标函数为:
5.根据权利要求4所述的所述车道线动态检测和车道分界线的拟合方法,其特征在于,生成对抗网络训练框架中的生成器网络和判别器网络的网络基本单元是卷积神经网络卷积单元;
其中生成器中间层基本单元采用卷积-批正则化-线性整流函数结构,瓶颈层采用U-Net架构,即通过在编码层与解码层间添加短路连接,将编码层的特征层直接传递到对应尺度的解码层;判别器中间层的基本单元采用卷积-批正则化-线性整流函数结构。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京东控智能交通研究院有限公司,未经南京东控智能交通研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910848177.X/1.html,转载请声明来源钻瓜专利网。