[发明专利]一种基于多尺度边缘特征检测的隧道识别模型及方法在审
申请号: | 202011007456.2 | 申请日: | 2020-09-23 |
公开(公告)号: | CN112085001A | 公开(公告)日: | 2020-12-15 |
发明(设计)人: | 陈涛;王洪剑;黄向军;林江;孙国梁 | 申请(专利权)人: | 清华大学苏州汽车研究院(相城) |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 上海国智知识产权代理事务所(普通合伙) 31274 | 代理人: | 潘建玲 |
地址: | 213000 江苏省苏州市相*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 边缘 特征 检测 隧道 识别 模型 方法 | ||
本发明公开了一种基于多尺度边缘特征检测的隧道识别模型及方法,所述模型包括:数据集构建模块,用于利用各种行驶道路的图像构建用于模型训练用的数据集;训练样本加载模块,用于在训练时批量加载训练样本,并于加载时将图像尺寸裁剪为同等大小,输入到识别网络;识别网络,基于残差网络Resnet34构建所述识别网络,在训练网络时使用边缘二值图像为标签,引导网络在学习图像特征时学习边缘特征,并结合多尺度边缘特征,以更精确地预测隧道。
技术领域
本发明涉及计算机图像处理技术领域,特别是涉及一种基于多尺度边缘特征检测的隧道识别模型及方法。
背景技术
目前,对自动驾驶和智能监控中汽车所拍摄到的道路图像进行处理的主要方法是语义分割,对图像中的所有像素点进行目标分类,得到道路、行人、汽车等环境目标的位置信息,从而帮助汽车进行规避和行驶。但是图像语义分割方法通常使用全卷积网络的方法如FCN,UNet等神经网络,这些网络在输入道路图像之后,输出一张相同大小的分割图像,是对图像中的每一个像素关于不同目标以及背景的分类,这些网络虽然有将深层信息与浅层信息结合起来,但是并没有充分利用其网络不同层输出所包含的多尺度信息,所以在某些目标的识别上会有不足之处,比如在遇到道路环境发生改变,如前方出现隧道时,网络对其的识别精度便不会很理想。
发明内容
为克服上述现有技术存在的不足,本发明之目的在于提供一种基于多尺度边缘特征检测的隧道识别模型及方法,以根据在自动驾驶和智能监控中车辆抓拍到的行驶通路图像中检测前方是否有隧道,从而及时给出预警。
为达上述目的,本发明提出一种基于多尺度边缘特征检测的隧道识别模型,包括:
数据集构建模块,用于利用各种行驶道路的图像构建用于模型训练用的数据集;
训练样本加载模块,用于在训练时批量加载训练样本,并于加载时将图像尺寸裁剪为同等大小,输入到识别网络;
识别网络,基于残差网络Resnet34构建所述识别网络,在训练网络时使用边缘二值图像为标签,引导网络在学习图像特征时学习边缘特征,并结合多尺度边缘特征,以更精确地预测隧道。
优选地,所述数据集构建模块通过利用对自动驾驶和智能监控中车辆抓拍到的行驶道路图像作为输入图像,人工标注的图像边缘二值图像以及有无隧道信息作为标签,构建用于模型训练用的数据集。
优选地,所述数据集中的数据以行驶道路图像和边缘二值图像与隧道标签作为一个训练样本。
优选地,所述识别网络基于残差网络Resnet34,通过去掉残差网络Resnet34中的全连接层、一开始的7×7的卷积层以及两个池化层,并将其根据通道数分为4个block,将每个block最后的特征图输出,使用1×1的卷积层分别将多层的特征图转换为一张图像。
优选地,除第一个block的输出特征图外,其他三个block的输出特征图在经过1×1的卷积之后,还要接上一个反卷积层进行上采样,以将图像变换为与输入图像大小相同的图像。
优选地,将所有block最终得到的图像结合,并使用1×1的卷积层变换得到一张图像,从而使得所述识别网络中与原图像大小一样的输出有5张图像,并且所述5张图像输出都通过相应的真值图像进行误差函数计算。
优选地,在最终结合的图像输出层之后,使用两个3×3的卷积层进行卷积,然后使用2×2的最大值池化层,再接两个全连接层,得到输出为{0,1},分别代表图像中有隧道和没有隧道。
优选地,所述识别网络共有5个图像输出及一个分类输出,都各自使用交叉熵损失,总的损失函数为所有损失函数的和。
为达到上述目的,本发明还提供一种基于多尺度边缘特征检测的隧道识别方法,包括如下步骤:
步骤S1,利用各种行驶道路的图像构建用于模型训练用的数据集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学苏州汽车研究院(相城),未经清华大学苏州汽车研究院(相城)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011007456.2/2.html,转载请声明来源钻瓜专利网。