[发明专利]一种基于强化学习的羽毛球对弈方法及系统有效
申请号: | 202110571829.7 | 申请日: | 2021-05-25 |
公开(公告)号: | CN113312840B | 公开(公告)日: | 2023-02-17 |
发明(设计)人: | 请求不公布姓名 | 申请(专利权)人: | 广州深灵科技有限公司 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06N20/00;A63B69/00;A63B71/06 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 张建 |
地址: | 510000 广东省广州市南沙区环*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 强化 学习 羽毛球 对弈 方法 系统 | ||
本发明实施例公开了一种基于强化学习的羽毛球对弈方法及系统,通过采集羽毛球运动中的运动图像或者视频,并将其数据化,包括击球时目标选手的位置,击球时目标选手的位置,击球时球的高度,击球前一刻球的速度,和击球后球的速度,并给出了强化学习状态,动作,和奖赏的3要素定义,提出了描述羽毛球目标选手的数学建模方法,并使用目标选手数学模型与强化学习所学策略模型输入模拟器中进行可视化显示,最后可以从对弈策略模型中搜索一系列大概率能够战胜目标选手的对弈获胜策略。
技术领域
本发明涉及基于强化学习的羽毛球对弈技术领域,尤其涉及一种基于强化学习的羽毛球对弈方法及系统。
背景技术
现有的关于羽毛球对弈策略的技术,主要通过人观看视频分析总结,有些采集数据分析对手跑动,击球,失误等数据分析。现有的方法无法给出一个数据化的对弈的策略。
强化学习是一种根据环境和结果的变化自动学习到最优的策略的方案,但是经典的强化学习并不能直接应用到羽毛球对弈策略的学习,其主要难点是如何去定义强化学习中的3要素:状态,动作和奖赏。基于强化学习的围棋对弈算法,例如AlphaGo,由于围棋和羽毛球运动本身的不同,其对强化学习3要素,状态,动作,和奖赏的定义是完全不一样的。因此,无法直接套用,目前市场上还没有一种针对羽毛球对弈能自动搜索出应对策略的系统。
发明内容
为了解决现有技术的缺陷,本发明的目的在于提供一种基于强化学习的羽毛球对弈方法及系统。
为达此目的,本发明采用以下技术方案:一种基于强化学习的羽毛球对弈方法,其特征在于,包括以下步骤:一种基于强化学习的羽毛球对弈方法,包括以下步骤:
获取目标选手A的运动图像和/或视频;
将所述运动图像和/或视频进行数据化处理,得到所述目标选手A的运动数据;
对所述运动数据进行强化学习,获得针对所述目标选手A的对弈策略模型;
对所述运动数据进行数学建模,获得针对所述目标选手A的击球模型和跑动模型;
将所述强化学习所得的对弈策略模型、所述目标选手A的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并视化;
从所述对弈策略模型中搜索出与所述目标选手A对弈的获胜策略。
进一步的,将所述运动图像和/或视频进行数据化处理,得到所述目标选手A的运动数据,具体包括以下步骤:
通过物体检测算法识别出目标选手A和球;
通过3D定位技术恢复目标选手A和球的每一帧的3D坐标;
通过目标选手A和球的每一帧的位置变化计算所述目标选手A和球的速度大小及方向;
通过视频语义分析得到球赛中胜负和击球事件。
进一步的,所述强化学习,具体定义为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州深灵科技有限公司,未经广州深灵科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110571829.7/2.html,转载请声明来源钻瓜专利网。