[发明专利]面向课堂场景的人体行为识别方法在审
申请号: | 201910674395.6 | 申请日: | 2019-07-24 |
公开(公告)号: | CN110414415A | 公开(公告)日: | 2019-11-05 |
发明(设计)人: | 戴忠健;顾晓炜;魏鹏宇 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 课堂是学校教育的核心场景,观察记录学生的课堂学习行为对评估教学质量有重要意义。仅依靠授课老师无法全面记录学生的学习行为,针对这一需求,面向课堂场景的人体行为识别方法实现了学生课堂学习行为的自动识别和记录。面向课堂场景的人体行为识别方法:提出3D多管道模型,降低3D CNN模型计算量。制作了课堂场景学生行为的数据集,由9名同学按指定序列完成相应动作,包括端坐、书写、趴桌、左顾右盼、举手、起立等常见行为,并以此训练模型,实现学生行为的分类识别功能。实现了完整的面向课堂场景的人体行为识别系统。包括人体检测跟踪,视频分割以及最后的行为识别,用于教学评估中的统计分析。 | ||
搜索关键词: | 人体行为识别 课堂 场景 学生 记录 分类识别 核心场景 教学评估 课堂学习 模型计算 人体检测 视频分割 授课老师 行为识别 学生课堂 学校教育 训练模型 重要意义 自动识别 统计分析 多管道 数据集 书写 学习 跟踪 观察 评估 教学 制作 | ||
【主权项】:
1.面向课堂场景的人体行为识别方法,其特征是:利用YOLO_V3与Deepsort实现课堂中学生个体的识别与跟踪,将每个个体从视频中分割出来,并按照端坐、书写、趴桌、左顾右盼、举手、起立等常见行为分类制作训练集。提出改进的3D多管道模型,将制作的训练集输入模型进行训练。通过测试集的检验,得到比较好的识别精度。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910674395.6/,转载请声明来源钻瓜专利网。