[发明专利]一种基于卷积神经网络的交通标志数据集制作方法在审
申请号: | 201910840275.9 | 申请日: | 2019-09-06 |
公开(公告)号: | CN110543915A | 公开(公告)日: | 2019-12-06 |
发明(设计)人: | 郑秋梅;王璐璐;胡永泽 | 申请(专利权)人: | 中国石油大学(华东) |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 266580 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测 数据集 训练神经网络 交通标志 网络 基准数据 边框 交通标志数据 卷积神经网络 标记格式 分类网络 构造分类 互不干扰 集中检测 统一格式 图片格式 优化参数 转换格式 智能化 卷积 拟合 整合 制作 工作量 分类 转换 检查 | ||
本发明提出一种基于卷积神经网络的交通标志数据集制作方法,解决训练神经网络过程中某类特定数据集制作成本和工作量大的问题,一定程度上避免训练神经网络出现的过拟合现象,属于智能化领域。其包括以下步骤:(1)对选用的基准数据集(本发明实例选用TT100K和CCTSDB数据集)中的所有图片格式、标记格式和与标记边框进行检查;(2)将数据集转换为统一格式;(3)构造用于检测目标的卷积网络;(4)修改检测网络中读取数据集的函数,并利用步骤(3)所设计检测网络在转换格式后的基准数据集中检测交通标志;(5)训练检测网络以优化参数;(6)构造分类网络对已经完成步骤(4)和步骤(5)中的检测任务的交通标志进行分类;(7)整合检测与分类网络,使之互不干扰。
技术领域
本发明提出一种基于卷积神经网络的交通标志数据集制作方法,解决训练神经网络过程中某类特定数据集制作成本和工作量大的问题,一定程度上避免训练神经网络出现的过拟合现象。属于智能化领域。
背景技术
随着汽车数量的增长,交通拥堵问题也越发严重。交通标志是道路上十分重要的安全设施之一,具有规范交通行为,指示道路情况的作用,同时也用来引导机动车与非机动车的行驶,指示行人通行。在智能化领域中,检测与识别交通标志是自动驾驶汽车系统中非常重要的一个部分,因此准确的检测与识别交通标志的研究意义也更加突出。
在交通标志的识别任务中,交通标志具有在图片中占比较小与种类众多的特点,为准确有效的识别交通标志增加了许多困难与障碍。交通标志在图片中占比较小,将会导致目标检测网络难以检测识别。如果数据集选择或制作不当,很容易造成训练的网络出现比较严重的过拟合现象。因此高质量的数据集对训练网络尤为重要。由于生活中交通标志的种类非常众多,如果要将每种交通标志都准确识别,就需要制作一个庞大的数据集,为这些图片制作标注信息时,需要在图片中圈出交通标志,并在多个类别中选择,这将会是一个非常庞大的工作量。并且交通标志在生活中出现的频率却有很大的不同,有些类别的交通标志出现次数可以破千,而有些类别交通标志出现的次数连10次都不到,甚至只有一次,导致出现次数少的交通标志难以被有效识别。
发明内容
针对上述问题,本发明的是一种基于卷积神经网络的交通标志数据集制作方法,将交通标示的检测和识别分成两步,通过两个卷积神经网络先后完成,目的是降低制作数据集的难度,一定程度上缓解过拟合现象,发明基本流程如图1所示。
本发明采取如下技术方案:一种基于卷积神经网络的交通标志数据集制作方法包括如下步骤:
1)对选用的基准数据集(本发明实例选用TT100K和CCTSDB数据集) 中的所有图片格式、标记格式和与标记边框进行检查;
2)将数据集转换为统一格式;
3)构造用于检测目标的卷积网络;
4)修改检测网络中读取数据集的函数,并利用步骤(3)所设计检测网络在转换格式后的基准数据集中检测交通标志;;
5)训练检测网络以优化参数;
6)构造的分类网络对已经完成步骤4)和步骤5)中的检测任务的交通标志进行分类。
7)整合检测与分类网络,使之互不干扰。
所述步骤1)防止在训练是出现异常,导致网络崩溃或者不准确。
所述步骤2)不同网络对于可接受的数据集格式不尽相同,不同组织所制作的数据集格式也各不相同,因此转换数据集为统一的格式,方便网络读取标记信息,对数据进行检查。
所述步骤3)采用以AlexNet为基础网络的SSD网络为检测网络,该网络共9层,特征图分别从第2层,第7层,第8层与第9层中进行提取,采用两个3×3大小的卷积核,分别负责检验该特征图中先验框的所对应物体的类别与位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910840275.9/2.html,转载请声明来源钻瓜专利网。