[发明专利]基于GoogLeNet神经网络的交叉路口识别方法在审
申请号: | 201910928129.1 | 申请日: | 2019-09-28 |
公开(公告)号: | CN110688958A | 公开(公告)日: | 2020-01-14 |
发明(设计)人: | 李成名;张鸿刚;武鹏达;刘嗣超;殷勇;吴政;赵占杰 | 申请(专利权)人: | 中国测绘科学研究院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 11732 北京睿智保诚专利代理事务所(普通合伙) | 代理人: | 周新楣 |
地址: | 100089 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 交叉路口 神经网络 样本量 采样 样本 机器视觉 路网数据 矢量数据 样本简化 栅格图像 初定位 构建 引入 研究 | ||
1.基于GoogLeNet神经网络的交叉路口识别方法,其特征在于,包括如下步骤:
S1、采样:选取全国主要城市的路网数据作为复杂交叉路口样本的采样源;
S2、构建Delaunay三角网:对复杂交叉路口进行初定位,初步确定复杂交叉路口中心位置及空间范围;
S3、增强样本量:通过样本简化、样本旋转和镜像的方式以增强样本量;
S4、样本预处理:在用样本训练GoogLeNet神经网络之前,需要对输入的栅格图片进行归一化和去均值处理,归一化处理即将输入的RGB图片A从区间[0,255]归化到区间[0,1]上,对于输入的像素,归一化处理可表示为,表示归一化后其对应的输入值;去均值处理即将归一化后的每一张输入的栅格图片均减去其平均值,之后的输入值位于区间[-0.5,0.5]上,若将归一化后的图片记作,则去均值化后输入,表示去均值化后对应像素的输入值;
S5、样本训练:选取GoogLeNet卷积神经网络进行训练,将初步获取的复杂交叉矢量数据转换为栅格数据作为训练样本集,得到复杂交叉路口识别的卷积神经网络模型;
S6、数据处理:将待识别数据通过训练好的GoogLeNet神经网络进行识别,并最终将识别结果反馈到初始矢量数据中。
2.根据权利要求1所述的基于GoogLeNet神经网络的交叉路口识别方法,其特征在于:S1中,对于空间跨度大的地图数据而言,除了确定采样矩形的位置外,还需要确定采样范围、样本尺寸和符号大小等参数,以使采集的样本符合人对立交桥的一般性认知规律,即采样的栅格样本在视觉上具有很好的可辨认性。
3.根据权利要求1所述的基于GoogLeNet神经网络的交叉路口识别方法,其特征在于:S2中,构建Delaunay三角网的具体步骤为:
步骤1:在路网矢量数据中,构建节点-弧段拓扑,并识别关联三个及三个以上弧段的节点;
步骤2:以步骤1中的节点为基础,构建Delaunay三角网,如图9(b)所示;
步骤3:以每一个节点为统计单元,识别其在Delaunay三角网中所关联的每一条边的长度,并计算局部平均长度及长度标准差;
步骤4:重复步骤3,直至所有节点统计完毕,计算局部平均长度及长度标准差的平均值作为全局平均长度及标准差;
步骤5:删除长度大于全局平均长度及标准差之和的各边,得到各个节点所属的聚类簇;
步骤6:计算聚类簇内各个节点的几何中心,并将其作为复杂交叉路口所在中心;
步骤7:计算聚类簇内各个节点到中心点的距离,将最大距离值的两倍作为边长得到最小外接正方形,并将其作为复杂交叉路口覆盖的空间范围。
4.根据权利要求1所述的基于GoogLeNet神经网络的交叉路口识别方法,其特征在于:S3中,样本简化处理步骤包括:首先,删除样本内部的孤立弧段;其次,识别与道路及样本边界相连接的悬挂弧段,并设置长度剔除阈值,若该悬挂弧段的长度小于或等于长度阈值,则删除这条悬挂弧段;反之,则保留该悬挂弧段,经过大量实验,本发明将长度阈值设置为样本边长长度的二分之一。
5.根据权利要求1所述的基于GoogLeNet神经网络的交叉路口识别方法,其特征在于:S3中,样本旋转和镜像的处理步骤包括:对复杂交叉路口矢量数据分别旋转90°、180°、270°,增加3倍样本容量;对复杂交叉路口矢量数据分别进行左右和上下镜像处理,增加2倍样本容量。
6.根据权利要求1所述的基于GoogLeNet神经网络的交叉路口识别方法,其特征在于:S3中,对经过样本简化、样本旋转和镜像操作增强后的样本进行标记和人工筛选,将增强后的样本数据分为训练集和测试集,训练集和测试集中的复杂交叉路口打标签为1,一般交叉路口打标签为0,形成最终样本数据集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国测绘科学研究院,未经中国测绘科学研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910928129.1/1.html,转载请声明来源钻瓜专利网。