[发明专利]智能游戏处理方法、装置、设备及存储介质有效
申请号: | 201910966855.2 | 申请日: | 2019-10-12 |
公开(公告)号: | CN110772794B | 公开(公告)日: | 2023-06-16 |
发明(设计)人: | 徐波 | 申请(专利权)人: | 广州多益网络股份有限公司;广东利为网络科技有限公司;多益网络有限公司 |
主分类号: | A63F13/67 | 分类号: | A63F13/67 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 麦小婵;郝传鑫 |
地址: | 510000 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 智能 游戏 处理 方法 装置 设备 存储 介质 | ||
1.一种智能游戏处理方法,其特征在于,包括:
获取智能游戏的当前玩家的游戏状态数据,并对所述智能游戏进行模拟;
根据预设的蒙特卡洛搜索树搜索当前玩家的游戏状态数据对应执行的动作直至整轮游戏结束;其中,每一次执行搜索得到的对应动作产生的游戏数据均作为下一次搜索时当前玩家的游戏状态数据;
将所述整轮游戏执行的各个动作后对应产生的游戏信息进行保存至数据库;
根据从所述数据库获取的采样数据采用反向传播法对预先构建的价值网络以及预先构建的动作概率网络的损失值函数进行优化,得到最佳价值网络以及最佳动作概率网络;
其中,所述游戏信息包括:当前玩家的游戏状态数据、当前玩家的游戏状态数据对应执行各个动作的概率标签、当前游戏状态价值标签以及整轮游戏结束时的游戏结果;
其中,所述预先构建的价值网络以及预先构建的动作概率网络的损失值函数具体为:
L=αLv+βLp+ηwtw;
其中,Lv为价值网络的损失值函数,α为价值网络的损失值函数的系数,Lp为动作概率网络的损失值函数,β为动作概率网络的损失值函数的系数,wtw为正则化惩罚项,η为正则化惩罚项的系数。
2.如权利要求1所述的智能游戏处理方法,其特征在于,所述根据预设的蒙特卡洛搜索树搜索当前玩家的游戏状态数据对应执行的动作直至整轮游戏结束;其中,每一次执行搜索得到的对应动作产生的游戏数据均作为下一次搜索时当前玩家的游戏状态数据,具体包括:
确定所述当前玩家的游戏状态数据对应的节点;
根据所述当前玩家的游戏状态数据对应的节点查找至少一个对应的子节点;
从至少一个所述对应的子节点中选择最佳子节点作为所述当前玩家的游戏状态数据下执行的动作。
3.如权利要求2所述的智能游戏处理方法,其特征在于,所述从至少一个所述对应的子节点中选择最佳子节点作为所述当前玩家的游戏状态数据下执行的动作;具体包括:
选择访问次数最多的子节点作为最佳子节点;
或,
以预设的选择概率从至少一个所述对应的子节点中选择最佳子节点;
或,
选择置信值最大的子节点;其中,所述UCB为置信值,N(v)为当前子节点访问次数,N(v’)子节点访问次数,E(Q(v))为所述整轮游戏中当前子节点获得的平局收益。
4.如权利要求1所述的智能游戏处理方法,其特征在于,所述对所述智能游戏进行模拟,具体包括:
对可见的信息保持不变,对非可见信息进行随机生成操作。
5.如权利要求1所述的智能游戏处理方法,其特征在于,在所述根据预设的蒙特卡洛搜索树搜索当前玩家的游戏状态数据对应执行的动作直至整轮游戏结束之后,将所述整轮游戏执行的各个动作后对应产生的游戏信息进行保存至数据库之前,还包括:
将至少一个所述当前玩家的游戏状态数据对应的节点进行反向传播分别计算每个当前游戏状态对应的收益值以及访问次数。
6.如权利要求1所述的智能游戏处理方法,其特征在于,所述方法还包括:
若根据预设的蒙特卡洛搜索树无法查找到当前玩家的游戏状态数据对应执行的动作且所述整轮游戏未结束,通过预设的神经网络扩展当前玩家的游戏状态数据对应的可能执行的动作,并记录各个可能执行的动作的概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州多益网络股份有限公司;广东利为网络科技有限公司;多益网络有限公司,未经广州多益网络股份有限公司;广东利为网络科技有限公司;多益网络有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910966855.2/1.html,转载请声明来源钻瓜专利网。