[发明专利]一种基于目标跟踪和姿态检测的教学行为分析方法及装置在审
申请号: | 201810388349.5 | 申请日: | 2018-04-26 |
公开(公告)号: | CN108846853A | 公开(公告)日: | 2018-11-20 |
发明(设计)人: | 谭卫军;姚琪;齐德龙;刘汝帅 | 申请(专利权)人: | 武汉幻视智能科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/00 |
代理公司: | 武汉蓝宝石专利代理事务所(特殊普通合伙) 42242 | 代理人: | 吴阳 |
地址: | 430000 湖北省武汉*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 姿态识别 行为分析 目标跟踪 人脸目标 人脸识别 多目标跟踪 准确度 姿势识别 姿态检测 人手 跟踪结果 目标识别 目标行为 人体位置 移动窗口 移动目标 移动侦测 视频流 准确率 人脸 教学 输出 检测 | ||
1.一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,包括以下步骤:
步骤1,获取视频流,并进行移动侦测,获取移动目标所在窗口;
步骤2,对窗口内目标进行检测,获取人手及人脸目标;
步骤3,为获取的人手及人脸目标建立多目标跟踪器,并根据人脸目标提取人体位置进行单人姿势识别;
步骤4,根据多目标跟踪器的跟踪结果判断目标行为,根据单人姿势识别结果进行行为分析,并输出。
2.根据权利要求1所述一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,所述步骤1还包括,过滤面积小于阈值的窗口,将面积大于阈值的窗口进行拼接。
3.根据权利要求2所述一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,所述的将面积大于阈值的窗口进行拼接,包括:
将移动目标所在窗口按照一定比例进行扩展,得到移动目标的有效监测区域;
在整幅视频帧画面内,生成可框选所有所述移动目标的有效监测区域的最小矩形框,非框选区域置黑。
4.根据权利要求1或3所述一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,所述步骤2执行的对窗口内目标进行检测,每间隔指定帧数进行一次目标检测,两次进行目标检测之间,采用步骤3中所建立的多目标跟踪器跟踪目标的移动。
5.根据权利要求4所述一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,所述步骤4所述的根据多目标跟踪器的跟踪结果判断目标行为,具体为在下一次进行目标检测之前进行跟踪结果的判断与输出。
6.根据权利要求1所述一种基于目标跟踪和姿态检测的教学行为分析方法,其特征在于,所述步骤3在建立多目标跟踪器时,为每个目标分配一个ID,用于标识并区分不同目标。
7.一种基于目标跟踪和姿态检测的教学行为分析装置,其特征在于,包括:
移动侦测模块,用于对获取的视频流进行移动侦测,并获取移动目标所在窗口;
目标检测模块,用于对窗口内移动目标进行检测,获取人手及人脸目标;
跟踪器创建模块,用于为所述目标检测模块获取的人手及人脸目标建立多目标跟踪器;
姿态识别模块,用于根据人脸目标提取人体位置并进行单人姿势识别;
分析输出模块,用于根据多目标跟踪器的跟踪结果判断目标行为,根据单人姿势识别结果进行行为分析,并输出。
8.根据权利要求7所述一种基于目标跟踪和姿态检测的教学行为分析装置,其特征在于,所述移动侦测模块包括窗口过滤拼接模块,用于在获取移动目标所在窗口时,过滤面积小于阈值的窗口,并将面积大于阈值的窗口进行拼接。
9.根据权利要求8所述一种基于目标跟踪和姿态检测的教学行为分析装置,其特征在于,所述的将面积大于阈值的窗口进行拼接,包括:
将移动目标所在窗口按照一定比例进行扩展,得到移动目标的有效监测区域;
在整幅视频帧画面内,生成可框选所有所述移动目标的有效监测区域的最小矩形框,非框选区域置黑。
10.根据权利要求9所述一种基于目标跟踪和姿态检测的教学行为分析装置,其特征在于,所述目标检测模块每间隔指定帧数进行一次目标检测,两次进行目标检测之间,采用所述跟踪器创建模块所建立的多目标跟踪器跟踪目标的移动。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉幻视智能科技有限公司,未经武汉幻视智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810388349.5/1.html,转载请声明来源钻瓜专利网。