[发明专利]一种游戏调整的方法及装置、电子设备、存储介质有效
申请号: | 201910024133.5 | 申请日: | 2019-01-10 |
公开(公告)号: | CN109550254B | 公开(公告)日: | 2022-09-30 |
发明(设计)人: | 陈赢峰;吕唐杰;林磊;范长杰 | 申请(专利权)人: | 网易(杭州)网络有限公司 |
主分类号: | A63F13/79 | 分类号: | A63F13/79 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 310052 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 游戏 调整 方法 装置 电子设备 存储 介质 | ||
本申请提供了一种游戏调整的方法,所述方法包括:获取目标游戏场景对应的游戏环境信息,以及所述目标游戏场景中目标游戏角色对应的可选行为集合;其中,所述可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合;其中,所述第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;按照所述第一行为集合,对游戏进行调整,实现了对游戏的准确调整,保证了游戏中数值平衡,进而提升了游戏性,且节省了人力资源,提升了调整的效率。
技术领域
本申请涉及游戏领域,特别是涉及一种游戏调整的方法及装置、电子设备、存储介质。
背景技术
目前,游戏性是衡量网络游戏优劣的一个重要因素,而游戏性通常取决于游戏中数值的设置,如当游戏中存在多种可供选择的游戏职业时,若由于针对某种游戏职业设置的相关数值导致选择该游戏职业的游戏角色过于强大,则可能会使得玩家集中选择该游戏职业,进而降低游戏性。
在现有技术中,一方面,通过策划人员在策划阶段根据自身对游戏的理解,对游戏进行调整,另一方面,通过测试人员在测试阶段采用测试用例进行重复的游戏测试,然后根据测试的结果对游戏进行调整。
然而,这种方式需要耗费大量的人力资源,一个数值点的调整可能需要几位、甚至几十位策划/测试人员同时进行工作,且过度调整依赖于策划/测试人员自身对游戏的理解,可能导致无法对游戏进行准确的调整。
发明内容
鉴于上述问题,提出了本申请以便提供克服上述问题或者至少部分地解决上述问题的一种游戏调整的方法及装置、电子设备、存储介质,包括:
一种游戏调整的方法,所述方法包括:
获取目标游戏场景对应的游戏环境信息,以及所述目标游戏场景中目标游戏角色对应的可选行为集合;其中,所述可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;
采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合;其中,所述第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;
按照所述第一行为集合,对游戏进行调整。
可选地,所述游戏环境信息包括所述目标游戏场景中参考游戏角色对应的第二行为集合,所述第二行为集合包括一个或多个第二行为及每个第二行为对应的第二数值。
可选地,所述采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合的步骤包括:
从所述可选行为集合中确定目标行为集合;其中,所述目标行为集合包括从所述一个或多个可选行为中确定的目标行为,以及从每个目标行为对应的数值范围中确定目标数值;
采用所述目标行为集合与所述第二行为集合,控制所述目标游戏角色与所述参考游戏角色进行游戏对战,得到对战结果;
当检测到满足预设条件的对战结果时,将所述满足预设条件的对战结果对应的目标行为集合作为第一行为集合。
可选地,采用如下方式判断是否检测到满足预设条件的对战结果:
在模型处理的过程中,采用预置的回报函数对获得的对战结果进行计算,得到函数回报值;
当所述函数回报值与预设回报值相匹配时,判定所述获得的对战结果为满足预设条件的对战结果。
可选地,所述目标游戏角色为采用待发布的游戏职业的游戏角色。
可选地,所述数据模型为采用强化学习训练的模型。
一种游戏调整的装置,所述装置包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于网易(杭州)网络有限公司,未经网易(杭州)网络有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910024133.5/2.html,转载请声明来源钻瓜专利网。