[发明专利]训练动作规划模型的方法及目标搜索方法有效
申请号: | 201910329763.3 | 申请日: | 2019-04-23 |
公开(公告)号: | CN110059646B | 公开(公告)日: | 2021-02-09 |
发明(设计)人: | 陈添水;吴捷;黄丽珊;梁小丹;林倞 | 申请(专利权)人: | 暗物智能科技(广州)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/08;G06T7/13;G06T7/246 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 李红团 |
地址: | 511458 广东省广州市南沙*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 训练 动作 规划 模型 方法 目标 搜索 | ||
1.一种训练动作规划模型的方法,其特征在于,包括:
获取当前测试图像、目标对象以及当前步数,所述当前步数为从第一张测试图像开始到所述当前测试图像为止,所动作的步数;
获取预测的边界框以及所述目标对象的边界框;其中,所述预测的边界框是基于所述当前测试图像预测得到的;
基于所述预测的边界框以及所述目标对象的边界框的大小关系,确定当前动作规划的奖赏;
将当前测试图像、目标对象以及当前步数输入动作规划模型,预测出下一步动作的概率分布及其对应的奖赏;其中,所述动作规划模型包括策略网络以及价值网络,所述下一步动作的概率分布对应于所述策略网络,所述概率分布对应的奖赏对应于所述价值网络;
根据所述当前动作规划的奖赏、所述下一步动作的概率分布以其对应的奖赏,对所述策略网络以及所述价值网络的进行强化学习,以训练所述动作规划模型;其中,所述动作规划模型用于预测下一步动作。
2.根据权利要求1所述的方法,其特征在于,所述基于所述预测的边界框以及所述目标对象的边界框的大小关系,确定当前动作规划的奖赏,包括:
计算所述预测的边界框与所述目标对象的边界框的交并比;
利用所述交并比以及最大步数,确定所述当前动作规划的奖赏。
3.根据权利要求2所述的方法,其特征在于,所述利用所述交并比以及最大步数,确定所述当前动作规划的奖赏,包括:
利用所述交并比以及所述最大步数,计算主动搜索的奖赏;
获取步数约束的奖赏;
计算所述主动搜索的奖赏与所述步数约束的奖赏之和,得到所述当前动作规划的奖赏。
4.根据权利要求3所述的方法,其特征在于,采用如下公式计算所述主动搜索的奖赏:
其中,Rt为所述主动搜索的奖赏;Ut为所述交并比;C1、C2分别为第一常数以及第二常数;t为所述当前步数;Tmax为所述最大步数。
5.根据权利要求1所述的方法,其特征在于,所述将当前测试图像、目标对象以及当前步数输入所述动作规划模型,预测出下一步动作的概率分布以其对应的奖赏,包括:
将所述当前测试图像以及所述目标对象的特征结合,并送入长短期记忆网络,以得到所述长短期记忆网络的隐含层信息;其中,所述隐含层信息为所记忆的场景信息;
将所述长短期记忆网络的隐含层信息与所述当前步数的特征结合,形成全局特征;
将所述全局特征分别输入所述价值网络以及所述策略网络,以得到所述下一步动作的概率分布 以及所述概率分布对应的奖赏。
6.根据权利要求1所述的方法,其特征在于,所述策略网络的损失函数为:
Lθ=J(θ)-αH(πθ(at|st));式中,
其中,Lθ为所述策略网络的损失函数;J(θ)为所述策略网络对应的目标函数;πθ(at|st)为所述下一步动作的概率分布;H(πθ(at|st)为πθ(at|st)的熵;α为控制熵正则化项的强度;Vθ(st)为所述概率分布对应的奖赏,Aπ(st,at)为所述策略网络对应的优势函数,所述优势函数由k阶回归和函数逼近估计;γ为折扣系数;rt为所述当前动作规划的奖赏。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于暗物智能科技(广州)有限公司,未经暗物智能科技(广州)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910329763.3/1.html,转载请声明来源钻瓜专利网。