[发明专利]一种基于深度学习的体育视频关键姿态提取方法有效
申请号: | 201611211395.5 | 申请日: | 2016-12-24 |
公开(公告)号: | CN106709453B | 公开(公告)日: | 2020-04-17 |
发明(设计)人: | 毋立芳;张世杰;贺宇迪;简萌;王向东 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 体育 视频 关键 姿态 提取 方法 | ||
基于深度学习的体育视频关键姿态提取方法应用于体育视频分析领域,具体涉及图像特征提取、图像分割与图像分类。举重视频中背景复杂,且背景区域存在大量的运动信息,使得光流法和背景削减法的结果并不理想;而帧间差分法需要选取合适的阈值,对于大量的举重视频,帧间差分法并不鲁棒。将一段举重视频,通过先用全卷积网络分割出前景,然后用聚类的方法优化分割结果,最后自动的提取出关键姿态的方法,取得了很好的效果。
技术领域
本发明应用于体育视频分析领域,具体涉及图像特征提取、图像分割与图像分类。将一段举重视频,通过先用全卷积网络分割出前景,然后用聚类的方法优化分割结果,最后自动的提取出关键姿态的方法。
背景技术
对视频中目标的检测与行为理解,已经成为机器视觉领域的热点问题。如在如人机交互系统,行为监控,体育辅助训练系统等。
体育视频中包含大量与人体运动相关的信息,且人体运动复杂,技巧性高,与人体的日常运动分析相比,体育视频中的人体运动的分析和识别检索具有更大的难度与挑战性。
在一些体育训练中,有些运动员的关键动作及姿态需要详细分析,它辅助运动员的训练、提高比赛成绩等。在诸如田径、剑术、跳水、体操体育运动方面都需要这种分析训练。
在一段体育训练的视频中把关键的姿态自动的检索和提取出来,就是我们所研究问题的来源和目的。
随着体育运动比赛竞争越来越激烈,科学的训练方法也变得越来越重要。
随着2008和2012年两届奥运会上中国举重代表队包揽大部分金牌,使得举重这个奥运会夺牌大项越来越受到人们的关注。
传统的举重训练,教练只能够凭借肉眼和经验等方法对运动员的技术动作进行分析与指导,而运动员也只能进行多次的重复性的训练,慢慢领悟并且掌握技术要领,从而使得效率大大降低。
目前,运动目标的检测技术已经非常成熟,下面是三种比较经典的方法:(1)光流法。三种传统的运动目标检测算法之一。当物体运动时,在图象上对应物体的亮度模式也在运动,从而称光流是图象亮度模式的视在运动。光流法检测采用了目标隨时间变化的光流特性。利用光流法,通过计算位移向量光流场来初始化目标的轮廓,从而使基于轮廓的跟踪算法有效地检测和跟踪目标。特征光流法的主要点在于对目标在帧间的运动的限制较少,可以处理大的帧间位移;主要缺点是大多数光流计算方法相当复杂,且抗噪性能差,如果没有特定的硬件支持,一般很难应用于序列图像中运动目标的实时性操作。
(2)帧间差分法。三种传统的运动目标检测算法之一。帧间差分是检测相邻两帧图象之间变化的最简单、最直接的方法,它是直接比较了两帧图象对应象素点的灰度值的不同,然后通过阈值来提取序列图象中的运动区域,第k帧图象A(x,y)和第k+l帧图象Ux,力之间的变化可用一个二值差分图像来表示。二值图象中为0的象素对应在前后两帧图象间没有发生(由于运动而产生的)变化的地方,为1的象素对应两帧图象间发生变化的地方,这常是由目标运动而产生的。
(3)背景消减法。三种传统的运动目标检测算法之一。在摄像头固定的情况下,背景消减法是常用的运动目标检测方法。其基本思想是将当前帧图象与事先存储或者实时得到的背景模型比较,根据比较的结果判断此象素点是否属于运动目标区域。背景消减法操作简单,检测位置准确且速度快。但通常的背景消减法对光线、天气等光照条件的变化非常敏感。运动目标的阴影也常常被检测为运动目标的一部分。这将影响检测结果的准确性。因此,在非控环境中需要加入背景图象的更新机制。常见的背景模型有单高斯分布背景模型和多高斯分布背景模型,前者是为每一个象素点建立了一个高斯分布模型,而后者则是根据多个高斯分布共同描述一个象素点上的颜色分布。传统的基于统计模型的背景法,由于需要对每个象素点建立统计模型,计算量大,而且通过该模型进行运动目标检测,无法在短时间内消除运动目标带来的鬼影。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611211395.5/2.html,转载请声明来源钻瓜专利网。