[发明专利]一种基于深度学习的城市道路交通状态预测系统在审
申请号: | 202010024882.0 | 申请日: | 2020-01-10 |
公开(公告)号: | CN111402576A | 公开(公告)日: | 2020-07-10 |
发明(设计)人: | 郝威;易可夫;高志波;张兆磊;戎栋磊;王杰;王正武 | 申请(专利权)人: | 长沙理工大学 |
主分类号: | G08G1/01 | 分类号: | G08G1/01;G06Q10/04;G06Q50/30;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 410114 湖南省*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 城市 道路交通 状态 预测 系统 | ||
1.一种基于深度学习的城市道路交通状态预测系统,其特征在于:利用如下模块实现预测:所述交通环境模块、所述记忆库模块、神经网络模块、训练提升网络模块、可视化模块、交互模块;
所述交通环境模块包括采集模块、预处理模块,所述采集模块采集城市道路位置信息、高峰期平均车速信息、气温信息、降水概率信息、拥堵长度信息;所述预处理模块基于拉格朗日插值方法与归一化方法进行交通数据预处理,获取用于交通预测的可靠数据,所得数据存入记忆库模块,并根据所述可靠数据构建神经网络,从而构建交通状态的深度循环学习网络;具体预处理方法如下:
通过拉格朗日插值方法进行异常值插补,删除部分无效数据、异常数据,从而提升数据的价值性,将数据转换成列表,构成矩阵,实现将tensor转成3维,作为LSTM cell进行输入;拉格朗日插值函数公式如下:
式中,表示为次的多项式,表示对应点的参数;
通过归一化函数实现数据的精确化处理,用于避免数据在分析过程中不同属性之间的小数据被大数据影响,由此保证测试结果的准确性和可靠性,归一化函数表达式如下:
式中,表示归一化数据,表示均值,表示标准差;
所述训练提升网络模块基于LSTM算法与Q-Learning,实现DRQN的训练方法;具体步骤如下:选取训练集与测试集,确定输出输入变量及网络层数,确定初始权值和阈值、学习速率、激活函数以及训练函数、训练神经网络模型,当反馈达到Q值表最优状态后停止网络训练,若不满足,进行参数值的修正与调整,调整参数使得预测、输入测试集数据得到最佳预测结果,分析预测结果得出最终的预测结果;
所述交互模块包括:将最佳预测结果选取前三条交互至所述可视化模块,从而为用户提供道路出行信息。
2.根据权利要求1所述的交通状态预测方法;其特征在于:所述方法还包括:对预测结果进行操作,得到可视化的损失函数曲线图以及Q-value图。
3.根据权利要求1所述的交通状态预测方法,其特征在于:所述方法还包括:预测结果与设置参数敏感度关联,其特征在于:
利用三因素三水平正交试验进行测评,三因素为learning_rate、reward_delay、e_greedy,记为A/B/C,对应水平为 0.01/0.03/0.05、0.9/0.8/0.7、0.9/0.8/0.7,将损失曲线的降幅程度作为优解判断依据;将A、B固定在 A1、B1水平上,与C的三个水平进行搭配A1B1C1、A1B1C2、A1B1C3,若A1B1C3最优,则取定C3水平,让A1与C3固定,再分别与B因素的两个水平搭配A1B2C3、A1B3C3,试验后若A1B2C3最优,取定 B2、C3两个水平,做两次试验A2B2C3、A3B2C3,若A3B2C3最优,即为最佳水平组合。
4.根据权利要求1所述的交通状态预测方法,其特征在于:
利用LSTM算法与Q-Learning进行交通延迟指数预测分析的算法步骤包括:
1):初试化DRQN网络结构,参数是q,初试化目标网络,参数q'=q;
2):初试化贪心参数、学习率、奖励、衰减系数、迭代次数、每个迭代轮数T、训练、神经网络参数轮换周期;
3):forepisodeinEpisodesdo;
4):初试化交通状态St=S0;
5):Fort从0到T;
6):选择行为(输出一个整数,范围在(0到2^n_features-1)):以1-epsilon的概率选择at=argmaxaQ(s,a,θ),epsilon的概率随机选择行为at;
7):行为确定好后,在数据表中找到符合这个行为的所有状态s_all,然后从s_all中随机选择一个作为st+1(如果在s_all中找不到符合条件的,则重新确定行为),然后根据st以及st+1来计算奖励rt;
8):将经验(st,at,rt,st+1)放入记忆池中;
9):随机拿出batchsize个数据,分别计算q_eval以及q_next;
10):构造y=r1+gmaxa+1Q(st+1,a|q)→q_target;
11):根据q_eval以及q_target,反向传播提升网络q;
12):如果迭代次数为transter_cycle的整数倍,就更新q'=q;
13):当前状态=st+1
14):达到单轮次game最大迭代次数T时停止该轮次训练,重新回到交通状态初试化;
15):end for;
16):end for。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长沙理工大学,未经长沙理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010024882.0/1.html,转载请声明来源钻瓜专利网。