[发明专利]基于监督信号引导的深度强化学习自动驾驶汽车控制方法有效
申请号: | 202110475638.0 | 申请日: | 2021-04-29 |
公开(公告)号: | CN113156963B | 公开(公告)日: | 2022-08-12 |
发明(设计)人: | 唐小林;金书峰;汪锋;邓忠伟;胡晓松;李佳承 | 申请(专利权)人: | 重庆大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02;G06F30/20;G06N3/08;G06N3/04 |
代理公司: | 北京同恒源知识产权代理有限公司 11275 | 代理人: | 杨柳岸 |
地址: | 400044 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 信号 引导 深度 强化 学习 自动 驾驶 汽车 控制 方法 | ||
1.一种基于监督信号引导的深度强化学习自动驾驶汽车控制方法,其特征在于,该方法具体包括以下步骤:
S1:获取周边车辆状态信息;
S2:建立汽车运动学模型;
S3:利用DDPG算法构建自动驾驶汽车控制模型对车辆的加速度和转向角进行控制,并优化Actor网络的损失函数,同时利用IDM算法和MOBIL算法构建加速度和转向角监督信号,对DDPG算法的训练进行引导和优化;
对DDPG算法的训练进行引导和优化,具体包括以下步骤:
S311:设计奖励函数R:
其中,k1,k2,k3,k4,k5,k6为各项奖励的权重系数;第一项为碰撞奖励,collision代表碰撞事件,碰撞发生时为1,未发生时为0;第二项为右侧车道奖励,lane为本车当前所在车道的序号,lane_num为车道总数;第三项为车速跟踪奖励,v为车辆速度,vmin为奖励范围内的最小速度,vmax为奖励范围内的最大速度,也是所跟踪的期望车速;第四项为舒适性奖励,鼓励本车尽量采取较小的转向角,δ为车辆前轮转向角,δmin为奖励范围内的最小转向角,δmax为奖励范围内的最大转向角;第五项为车道中心保持奖励,ΔX为车辆与车道中心线的横向距离;第六项为安全性与效率奖励,Δx为周边车辆与本车的横向距离,Δxmin为本车与前车奖励范围内的最小距离,Δxmax为本车与前车奖励范围内的最大距离;
本车执行动作后,根据奖励函数计算当前状态下执行该动作的奖励值;
S312:本车执行动作后,根据汽车运动模型得到本车的下一状态S′;
S313:设置经验池用于存放本步的经验样本{S,A,R,S′,As},当经验池样本数超过经验池容量后,最早的经验样本将被新的经验样本替换;
S314:从经验池中随机抽取N个样本进行在线Critic网络更新;
S315:利用步骤S314抽取的N个经验样本进行在线Actor网络更新;
S316:对目标Critic网络及目标Actor网络进行软更新:
θQ′=τθQ+(1-τ)θQ′
θμ′=τθμ+(1-τ)θμ′
其中,τ为软更新参数,θQ为在线Critic网络参数,θQ′为目标Critic网络参数,θμ为在线Actor网络参数,θμ′为目标Actor网络参数。
2.根据权利要求1所述的自动驾驶汽车控制方法,其特征在于,步骤S1中,获取的周边车辆状态信息,具体包括:周边车辆与本车的横纵向相对车速,以及周边车辆与本车的横纵向距离。
3.根据权利要求1所述的自动驾驶汽车控制方法,其特征在于,步骤S2中,搭建的汽车运动学模型为:
其中,x,y为全局坐标系下车辆质心的横坐标和纵坐标,为全局坐标系下车辆质心的横向速度和纵向速度,v为车辆速度,θ为车辆航向角,为车辆横摆角速度,β为车辆侧偏角,a为车辆加速度,lf为车辆前轴到质心的距离,lr为车辆后轴到质心的距离,δ为车辆前轮转向角。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆大学,未经重庆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110475638.0/1.html,转载请声明来源钻瓜专利网。