[发明专利]一种基于强化学习可变限速控制的快速道路通行效率改善方法在审

专利信息
申请号: 201610542934.7 申请日: 2016-07-11
公开(公告)号: CN106157650A 公开(公告)日: 2016-11-23
发明(设计)人: 李志斌;刘攀;王炜;徐铖铖 申请(专利权)人: 东南大学
主分类号: G08G1/09 分类号: G08G1/09;G08G1/01
代理公司: 江苏永衡昭辉律师事务所 32250 代理人: 王斌
地址: 210096*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 一种基于强化学习可变限速控制的快速道路通行效率改善方法。基于强化学习方法实时确定可变限速值,智能体依据交通流数据感知快速道路上交通流运行状态,针对当前状态选择一个限速值动作并计算该动作导致的状态转移的回报值,智能体遍历所有状态‑动作组合直到所有状态‑动作的回报值收敛,智能体离线习得不同交通流状态下的最优限速值动作。依据实时交通流数据智能体自主选择当前状态对应的最优限速值并发布,同时将控制后的交通流数据和限速值传回控制中心使智能体持续学习。本发明弥补了之前可变限速控制中交通流状态和限速值之间对应关系确定的主观随意性,提高了控制系统的抗干扰能力,通过智能体持续挖掘可变限速值对通行效率改善的影响规律,实现依据实时交通流数据对可变限速值进行反馈调节,有效提升了瓶颈路段可变限速控制下道路的通行效率。
搜索关键词: 一种 基于 强化 学习 可变 限速 控制 快速 道路 通行 效率 改善 方法
【主权项】:
一种基于强化学习可变限速控制的快速道路通行效率改善方法,其特征是包括步骤:1)确定快速道路瓶颈路段及可变限速控制路段范围,以合理间距设置交通流检测器,获取快速道路瓶颈路段一段时间内的真实交通流数据,在可变限速控制路段上游端设置可变限速指示牌,用于发布可变限速值;2)确定强化学习方法中的交通流状态集和动作集,状态集包括瓶颈位置上下游及匝道的密度信息,因此交通流状态集中的每个元素是一个记录了瓶颈位置上下游及匝道的密度的状态向量S,在自由流、拥堵状态和关键密度附近分别对交通流状态进行划分;动作集为不同限速值,应在路段允许的最高和最低限速值之间,即VSL∈{Vmin,Vmax},同时考虑到驾驶员对限速值的接受情况,发布的限速值取为5或10的整数倍;3)基于提高快速道路通行效率这一目标确定强化学习的著名算法Q学习算法中的回报函数,所述Q学习方法中回报函数依据路段交通流密度设置,假设各交通流密度对应的回报函数服从泊松分布,回报函数表达式如下:<mrow><mi>R</mi><mrow><mo>(</mo><mi>s</mi><mo>)</mo></mrow><mo>=</mo><mi>&mu;</mi><mi>g</mi><mi>Pr</mi><mrow><mo>(</mo><mi>X</mi><mo>=</mo><mi>s</mi><mo>)</mo></mrow><mo>=</mo><mi>&mu;</mi><mi>g</mi><mfrac><mrow><msup><mi>&lambda;</mi><mi>s</mi></msup><msup><mi>e</mi><mrow><mo>-</mo><mi>&lambda;</mi></mrow></msup></mrow><mrow><mi>s</mi><mo>!</mo></mrow></mfrac></mrow>其中,R(s)为状态s对应的回报值,μ为决定回报值幅度的参数,缺省值为1×104,Pr(X=s)为状态s的概率函数,λ为泊松分布参数,缺省值为26.9辆/英里;4)基于步骤1)中采集到的交通流和可变限速控制状态数据库训练智能体,步骤包括:401)初始化,Q学习中的参数Q值反映不同状态下选择不同动作的长期回报,初始状态下将所有“状态‑行为”对应的Q值设置为零,将可变限速控制前后5分钟的数据集计后用于判断交通流状态的转移情况;402)基于步骤401)中的初始化数据开始Q学习,在Q学习每一个时间步中,首先判断当前交通流状态,再判断当前状态是否已执行20次动作选择,若是,则进入步骤403);若不是则强制智能体尝试当前状态对应的不同动作实现“状态‑行为”集的遍历,再进入步骤404);403)采用softmax动作选择策略根据下式计算当前状态下选择各动作的概率:<mrow><msub><mi>P</mi><mi>s</mi></msub><mrow><mo>(</mo><mi>a</mi><mo>)</mo></mrow><mo>=</mo><mfrac><msup><mi>e</mi><mrow><mi>Q</mi><mrow><mo>(</mo><mi>s</mi><mo>,</mo><mi>a</mi><mo>)</mo></mrow><mo>/</mo><mi>T</mi></mrow></msup><mrow><msub><mi>&Sigma;</mi><mrow><mi>b</mi><mo>&Element;</mo><mi>A</mi></mrow></msub><msup><mi>e</mi><mrow><mi>Q</mi><mrow><mo>(</mo><mi>s</mi><mo>,</mo><mi>a</mi><mo>)</mo></mrow><mo>/</mo><mi>T</mi></mrow></msup></mrow></mfrac></mrow>其中,Ps(a)为在状态s下选择行动a的概率,T为退火温度,Qt(s,a)为当前时刻“状态‑行为”对应的Q值;404)将步骤3)中计算得到的“状态‑行为”回报值和步骤402)或步骤403)中做出的动作选择带入下式更新Q值:Qt+1(st,at)=Rt+1+0.8×max Qt(st+1,at+1)其中,Qt+1(st,at)为t+1时刻对应的Q值,Qt(st+1,at+1)为t时刻对应的Q值,Rt+1为t+1时刻对应的回报函数值;405)判断Q值是否收敛,若是则将每个状态下最大Q值对应的动作确定为最优控制策略;若不是,则返回步骤3)转入下一个时间步;5)基于步骤405)中给出的最优可变限速控制策略,检测当前交通流检测器的数据并依据步骤2)确定的状态划分确定主线及匝道的交通流状态,采用训练后的智能体实时选择当前交通流状态下的最优限速值并传递至可变限速控制指示牌发布限速值;6)实时采集步骤5)中发布最优限速值后的交通流数据和限速值并传回控制系统,智能体依据新的交通流数据和限速值重复步骤4)持续学习最优控制策略。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610542934.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top