[发明专利]一种基于深度强化学习的换挡策略动态优化方法有效

专利信息
申请号: 201911076016.X 申请日: 2019-11-06
公开(公告)号: CN110716550B 公开(公告)日: 2022-07-22
发明(设计)人: 陈刚;袁靖;张介;顾爱博;周楠;王和荣;苏树华;陈守宝;王良模;王陶 申请(专利权)人: 南京理工大学
主分类号: G05D1/02 分类号: G05D1/02
代理公司: 南京理工大学专利中心 32203 代理人: 张玲
地址: 210094 *** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明属于工程机械及车辆工程领域,具体涉及一种基于深度强化学习的换挡策略动态优化方法。包括如下步骤:(1):确定换挡策略状态输入变量和动作输出变量;(2):根据状态输入变量和动作输出变量,确定换挡策略马尔科夫决策过程;(3):根据换挡策略目标建立强化学习换挡策略奖励函数;(4):根据马尔科夫决策过程和奖励函数,求解深度强化学习换挡策略;(5):将步骤(4)计算出的预测Q网络放入换挡策略控制器,工程机械及车辆在行驶过程中,工程机械及车辆根据换挡策略控制器选择挡位;(6):在行驶过程中定期更新预测Q网络。本发明通过深度强化学习方法对换挡策略进行更新,实现换挡策略的动态优化。
搜索关键词: 一种 基于 深度 强化 学习 换挡 策略 动态 优化 方法
【主权项】:
1.一种基于深度强化学习的换挡策略动态优化方法,其特征在于,包括如下步骤:/n步骤(1):确定换挡策略状态输入变量和动作输出变量;/n步骤(2):根据步骤(1)的状态输入变量和动作输出变量,确定换挡策略马尔科夫决策过程;/n步骤(3):根据换挡策略目标建立强化学习换挡策略奖励函数;/n步骤(4):根据步骤(2)中的马尔科夫决策过程和步骤(3)中的奖励函数,求解深度强化学习换挡策略;具体为首先通过马尔可夫决策过程及奖励函数计算马尔可夫链,将马尔可夫链保存入经验池,然后根据经验池中数据更新深度强化学习换挡策略中的预测Q网络;/n步骤(5):将步骤(4)计算出的预测Q网络放入换挡策略控制器,在行驶过程中,工程机械及车辆根据换挡策略控制器选择挡位;/n步骤(6):在行驶过程中,采集工程机械及车辆行驶数据保存进经验池,并定期更新预测Q网络,更新完成后将预测Q网络放入换挡策略控制器,实现对换挡策略进行动态优化。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201911076016.X/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top