[发明专利]游戏资源的缓存方法、决策网络的训练方法及装置在审
申请号: | 201911064155.0 | 申请日: | 2019-11-01 |
公开(公告)号: | CN110665223A | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 胡玥;王蒙;陈赢峰;范长杰 | 申请(专利权)人: | 网易(杭州)网络有限公司 |
主分类号: | A63F13/49 | 分类号: | A63F13/49;A63F13/60;A63F13/70;A63F13/77;G06N3/08 |
代理公司: | 11646 北京超成律师事务所 | 代理人: | 王文红 |
地址: | 310052 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 缓存 目标游戏 游戏资源 决策网络 缓存位置 缓存资源 请求资源 行为习惯 游戏技术 资源缓存 资源请求 命中率 替换 响应 游戏 保留 检查 | ||
1.一种游戏资源的缓存方法,其特征在于,应用于游戏的客户端,所述方法包括:
响应针对于所述游戏中的虚拟对象的资源请求,检查高速缓冲存储器cache中是否已缓存所述资源请求对应的目标游戏资源;
如果所述cache中未缓存所述目标游戏资源,获取所述游戏的状态信息,其中,所述状态信息包括所述虚拟对象的当前位置信息和所述虚拟对象的运动路径信息;
基于所述状态信息和预先训练好的决策网络,确定所述目标游戏资源的缓存位置;其中,训练所述决策网络的执行步骤包括:获取游戏模拟环境的状态信息,并应用所述状态信息对决策网络进行强化学习训练,得到训练好的所述决策网络;
将所述目标游戏资源缓存至所述缓存位置。
2.根据权利要求1所述的方法,其特征在于,基于所述状态信息和预先训练好的决策网络,确定所述目标游戏资源的缓存位置,包括:
将所述状态信息输入预先训练好的决策网络,得到所述决策网络输出的评分值,其中,所述评分值为将所述目标游戏资源缓存至所述cache中的每个位置对应的评分值;
基于所述评分值确定所述目标游戏资源的缓存位置。
3.根据权利要求1所述的方法,其特征在于,所述将所述目标游戏资源缓存至所述缓存位置的步骤包括:
如果所述缓存位置已缓存有资源,将所述缓存位置中已缓存的所述资源替换为所述目标游戏资源。
4.根据权利要求1所述的方法,其特征在于,所述将所述目标游戏资源缓存至所述缓存位置的步骤包括:
如果所述缓存位置为空,将所述资源请求对应的目标游戏资源缓存至所述缓存位置。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
如果所述cache中缓存有所述目标游戏资源,将所述目标游戏资源渲染至所述客户端的图形用户界面上。
6.一种决策网络的训练方法,其特征在于,所述方法包括:
响应针对游戏模拟环境的构建操作,在预先建立的游戏模拟界面上添加静态资源、动态资源和运动体,以及触发所述运动体和所述动态资源在所述游戏模拟界面上运动;
响应所述运动体在运动过程中的各个模拟资源请求;
针对每个所述模拟资源请求,均执行:获取所述游戏模拟环境的状态信息,并应用所述状态信息对决策网络进行强化学习训练,得到训练好的所述决策网络;
其中,所述状态信息包括所述运动体的当前位置信息和所述运动体的运动路径信息;所述决策网络用于对缓存游戏资源的cache进行资源管理。
7.根据权利要求6所述的方法,其特征在于,所述在预先建立的游戏模拟界面上添加静态资源、动态资源和运动体的步骤包括:
在预先建立的游戏模拟界面上添加所述静态资源对应的标识、所述动态资源对应的标识、所述运动体的标识,以及所述运动体的预设运动终点标识。
8.根据权利要求6所述的方法,其特征在于,所述触发所述运动体和所述动态资源在所述游戏模拟界面上运动的步骤包括:
设置所述运动体和所述动态资源的运动模式;
触发所述运动体和所述动态资源在所述游戏模拟界面上按照相应的运动模式进行运动,以构建游戏模拟环境;
其中,所述运动模式包括固定转移模式和概率转移模式。
9.根据权利要求6所述的方法,其特征在于,所述应用所述状态信息对决策网络进行强化学习训练包括:
应用所述状态信息构建所述决策网络的强化学习环境,在所述强化学习环境中对所述决策网络进行强化学习训练;
其中,所述强化学习环境包括状态空间、动作空间和奖励函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于网易(杭州)网络有限公司,未经网易(杭州)网络有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911064155.0/1.html,转载请声明来源钻瓜专利网。