[发明专利]一种基于深度学习和多层特征融合的驾驶场景目标检测方法在审
申请号: | 201810530668.5 | 申请日: | 2018-05-29 |
公开(公告)号: | CN108875595A | 公开(公告)日: | 2018-11-23 |
发明(设计)人: | 赵敏;孙棣华;贾建 | 申请(专利权)人: | 重庆大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 北京汇泽知识产权代理有限公司 11228 | 代理人: | 武君 |
地址: | 400044 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 训练模型 特征融合 多层 训练数据集 场景目标 训练网络 检测 预处理 采集视频图像 图像输入步骤 驾驶 车载摄像头 低层特征 检测结果 交通图像 前方图像 特征提取 语义信息 初始化 金字塔 采集 学习 网络 | ||
本发明涉及交通图像处理技术领域,公开了一种基于深度学习和多层特征融合的驾驶场景目标检测方法,该方法包括以下步骤:1)采集视频图像,作为训练数据集,并进行预处理;2)搭建训练网络;3)对训练网络进行初始化,获得预训练模型;4)使用步骤3)获得的预训练模型在训练数据集上进行训练,获得训练模型;5)使用车载摄像头采集前方图像,将图像输入步骤4)获得的训练模型中,获得检测结果。本发明采用基于特征金字塔的多层特征融合方法来增强低层特征图的语义信息,从而提升网络的特征提取质量,获得更高的检测精度。
技术领域
本发明涉及交通图像处理技术领域,具体涉及一种驾驶场景目标检测方法。
背景技术
随着人工智能技术的发展,智能驾驶汽车获得快速的发展。目标检测是智能驾驶汽车环境感知的关键技术之一,对前方交通目标的准确检测有助于做出正确的驾驶决策。驾驶场景下的目标检测任务中,道路环境复杂多变,各类目标物互相遮挡,光照变化复杂,这些不利因素都制约着目标检测效果的提升。
在目标检测领域,能否高效提取图像特征决定着检测性能的优劣。传统机器学习方法使用HOG(Histogram of Oriented Gradient,方向梯度直方图)或Haar等人工特征进行图像的特征提取,比如上海大学申请的“一种车辆前方行人检测方法及系统”(CN105260712A)。该方法首先获取图像信息并进行预处理,然后联合LBP(Local BinaryPattern,局部二值模式)和HOG进行特征提取,最后使用支持向量机(Support VectorMachine,SVM)来判别。但是由于人工特征对目标多样性的变化适应性差,因而检测准确率并不高,难以用于驾驶场景。深度学习在近年来发展迅速,在图像处理领域获得了巨大的成功,通过构建多层的卷积神经网络,可以从原始数据开始,将多种底层特征组合成表示能力更强、语义信息更丰富的高层特征,而且GPU加速运算也使得计算速度大幅提升。因此基于卷积神经网络的目标检测方法能获得更好的检测效果,是目前的发展方向。Faster R-CNN方法属于两级检测,使用区域生成网络(Region Proposal Networks,RPN)来提取大量候选区域,然后对候选区域进行分类和回归,得出最终检测结果。该方法能取得较高的检测精度,但是运行速度过慢,且内存消耗较为庞大,限制了其应用场景。YOLO(You Look OnlyOnce)算法属于一级检测,使用7×7的网格进行端到端的回归计算,将目标的分类和定位合并处理,YOLO算法检测速度较快,但简单的网格回归运算使其检测精度不高。SSD(SingleShot MultiBox Detector)算法也是端到端检测的代表,引入了多层检测结构,提升了多尺度目标的检测能力,但低层特征图语义信息的缺失导致SSD算法于小目标的检测能力较弱。
发明内容
有鉴于此,本发明提供一种基于深度学习和多层特征融合的驾驶场景目标检测方法,可提升网络的特征提取质量,获得更高的检测精度。
本发明的目的是通过以下技术方案来实现的:
一种基于深度学习和多层特征融合的驾驶场景目标检测方法,该方法包括以下步骤:
1)采集视频图像,作为训练数据集,并进行预处理;
2)搭建训练网络;
3)对训练网络进行初始化,获得预训练模型;
4)使用步骤3)获得的预训练模型在训练数据集上进行训练,获得训练模型;
5)使用车载摄像头采集前方图像,将图像输入步骤4)获得的训练模型中,获得检测结果。
进一步,所述步骤1)包括如下步骤:
11)通过车载摄像头获取视频图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆大学,未经重庆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810530668.5/2.html,转载请声明来源钻瓜专利网。