[发明专利]一种基于类人驾驶规则与改进深度确定性策略梯度的无人驾驶方法在审
申请号: | 202010986168.X | 申请日: | 2020-09-18 |
公开(公告)号: | CN112198794A | 公开(公告)日: | 2021-01-08 |
发明(设计)人: | 翟元盛;吕迪;赵文凯;苏晗;孙亚洲 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G05B13/04 | 分类号: | G05B13/04;B60W60/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 驾驶 规则 改进 深度 确定性 策略 梯度 无人驾驶 方法 | ||
1.一种基于类人驾驶规则与改进深度确定性策略梯度的无人驾驶方法,包括以下步骤:
使用基于规则而非基于样本的方式进行类人驾驶行为建模;
基于添加类人行为约束的深度确定性策略梯度算法进行无人驾驶策略探索。
2.根据权利要求1所述的方法,其中,在所述无人驾驶方法中,对类人驾驶行为的建模方式为:
其中,<s1,s2,…sn>表示驾驶过程中智能体状态(State)的集合,<a1,a2,…an>表示驾驶过程中智能体动作(Action)的集合,{τ1,τ2,…,τm}代表不同场景下融合类人逻辑的驾驶规则,{λ1,λ2,…,λn}为连续动作序列A=<a0,a1,…,an>中时序动作上的前后关联。
相应的,本发明改进的模仿学习方式将抽取出的「状态-动作对」的集合形式改进为:
其中,D表示抽取出的「状态-动作对」的集合。
3.根据权利要求1所述的方法,其中,在所述无人驾驶方法中,基于添加类人行为约束的深度确定性策略梯度算法的策略更新方式为:
其中,θQ为评价网络(critic network)的权值,θμ为动作网络(Actor network)的权值,{λ1,λ2,…,λn}为连续动作序列A=<a0,a1,…,an>中时序动作上的前后关联,是当前的无人驾驶策略梯度,是在添加类人行为约束后,评价网络的Q值对于当前动作a的梯度。
4.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现根据权利要求1所述方法的步骤。
5.一种计算机设备,包括存储器和处理器,在所述存储器上存储有能够在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1所述的方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010986168.X/1.html,转载请声明来源钻瓜专利网。