[发明专利]一种课堂行为检测方法、系统、装置和存储介质在审
申请号: | 201910943862.0 | 申请日: | 2019-09-30 |
公开(公告)号: | CN110728316A | 公开(公告)日: | 2020-01-24 |
发明(设计)人: | 曾文彬;郝禄国;吴楚权;葛海玉;杨琳;高星 | 申请(专利权)人: | 广州海昇计算机科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00 |
代理公司: | 44205 广州嘉权专利商标事务所有限公司 | 代理人: | 何文聪 |
地址: | 510663 广东省广州市高新技术产业开*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 负样本 负样本图像 课堂行为 特征图 预设 计算机视觉处理 目标检测算法 预处理图像 存储介质 分类处理 教学领域 目标行为 匹配成功 输出检测 损失函数 特征提取 硬件设置 预设算法 时效性 图像集 训练集 检测 预测 对正 匹配 制作 应用 学习 | ||
本发明公开了一种课堂行为检测方法、系统、装置和存储介质,其中方法包括:获取待处理的图像集,采用预设算法预处理图像集,以获取预设比例的正/负样本图像;对获得的正/负样本图像进行特征提取,以生成正/负样本特征图;对获得的正/负样本特征图进行分类处理后,生成正/负样本预测框;结合损失函数和预设真实框集对正/负样本预测框进行匹配,并在匹配成功后,输出检测结果。实现了对课堂行为的准确识别,提升了目标行为的检测精度以及时效性,降低了对硬件设置的依赖,结果简单,易于制作训练集,有利于基于深度学习的目标检测算法在教学领域的进一步推广应用。可广泛的应用于计算机视觉处理技术领域。
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种课堂行为检测方法、系统、装置和存储介质。
背景技术
术语解释:
单步(One Stage)目标检测算法:基于回归的检测算法。
双步(Two Stage)目标检测算法:基于区域候选的检测算法。
NMS(Non-Maximum Suppression):非极大值抑制算法。
双流(Two-Stream):视频中的行为检测算法。
OHEM(online hard example mining):在线难分样本挖掘算法。
近年来,基于深度学习的目标检测技术领域随着人工智能的快速发展已经取得了很大的突破,这其中基于目标检测的单步目标检测算法和双步目标检测算法均经历了一个快速发展的过程,如双步目标检测算法从R-CNN到Fast R-CNN,再从Fast R-CNN到R-FCN,单步检测算法则是以SSD、YOLO等为代表;这些目标检测算法具有较好的精度和实时性能,因此基于深度学习的目标检测算法在各应用领域得到了广泛的应用如人脸检测、行人检测以及车牌识别等。
基于深度学习的检测算法在教学领域同样有着很大的应用前景与价值。目前基于深度学习的检测算法教室环境下对学生行为检测应用方式主要有两种方式:一是采用双流算法和3D卷积的方法进行研究;二是利用现有单双步目标检测算法对学生的行为进行检测以及位置定位和识别;但是基于双流和3D卷积的方法存在以下不足:计算复杂难以实现预期效果、对硬件性能要求较高、训练数据集制作困难,精确度低;单独基于单步或双步检测方法难易兼顾高精确度和快实时性的要求;此外以上各种检测方式由于没有对数据集优化处理,直接通过录播设备捕捉学生的动作信息,然后输入检测网络进行定位和预测,难以保证检测的准确性。
发明内容
本发明旨在解决上述相关技术中的技术问题之一,本发明的目的是提供一种对课堂行为检测方法、系统、装置和存储介质,实现对课堂行为识别满足高精确度和快实时性的需求。
本发明所采用的第一技术方案是:
一种课堂行为检测方法,包括以下步骤:
获取待处理的图像集,采用预设算法预处理图像集,以获取预设比例的正/负样本图像;
对获得的正/负样本图像进行特征提取,以生成正/负样本特征图;
对获得的正/负样本特征图进行分类处理后,生成正/负样本预测框;
结合损失函数和预设真实框集对正/负样本预测框进行匹配,并在匹配成功后,输出检测结果。
进一步,所述获取待处理的图像集,采用预设算法处理图像集,以获取预设比例的正/负样本图像这一步骤,具体包括以下步骤:
获取待处理的图像集;
采用预设算法对待处理的图像集进行前景像素交并比匹配,以获取多个正样本图像;
采用预设算法对待处理的图像集进行背景像素置信度匹配,以获取多个待处理负样本图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州海昇计算机科技有限公司,未经广州海昇计算机科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910943862.0/2.html,转载请声明来源钻瓜专利网。