[发明专利]一种录播系统中教师检测与跟踪方法及系统有效
申请号: | 202011327994.X | 申请日: | 2020-11-24 |
公开(公告)号: | CN112597801B | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 张进;蒋守欢;朱于平;王满海 | 申请(专利权)人: | 安徽天虹数码科技股份有限公司 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V20/40;G06V10/82;G06T7/246;G06T7/277;G06Q50/20 |
代理公司: | 合肥天明专利事务所(普通合伙) 34115 | 代理人: | 苗娟 |
地址: | 230031 安徽省合肥市*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 录播 系统 教师 检测 跟踪 方法 | ||
本发明的一种录播系统中教师检测与跟踪方法及系统,包括以下步骤:S100、通过固定在教室后方的摄像头获取教师上课的场景图像,并对图像进行预处理;S200、对预处理的图像进行缩放;S300、把缩放后的图像放入到训练好的教师检测网络进行检测,初步获取目标的坐标点;S400、获取的目标点通过目标检测模块的修正与补充最终送入云台进行控制跟踪。本发明采用卷积网络作为老师特征的提取,能够克服运动检测方法对光线敏感性,提高目标的检测率,与常见的检测网络相比,能够更好的平衡复杂度与精准度之间的关系,采用卡尔曼滤波处理,不仅能修正检测的目标,还能解决运动模糊带来的目标丢失的问题。
技术领域
本发明涉及运动检测技术领域,具体涉及一种录播系统中教师检测与跟踪方法及系统。
背景技术
随着教育和科技的发展,传统的语音教育已经不能满足教育方式多元化的需要。教师进行课堂教育教学方式越来越追求可视化,学生通过课堂学习能力要求探究合作化,然而对于这些问题要求的实现,很大程度上要借助于现代化的信息管理技术基础设施,特别是课堂实践教学的可视化。
现有可使用的技术主要是基于运动检测的方法和模式识别的方法。基于运动检测的方法主要是采用背景建模等方法确定目标区域,然后基于特征来检测行人,这种方法最大的缺点是特别容易受到光线的干扰,检测出错误的目标;基于模式识别的方法主要是采用人工设计的特征,经过少量样本的训练然后用分类器进行分类,典型的组合是HOG特征和SVM分类器结合,这种方法在识别人这种非刚性的物体时精准度也不高。
随着人工智能的发展,基于深度学习的方法广泛应用到目标检测与识别任务,其中最具代表性的有YOLO、SSD等端到端的检测网络,这些网络基于图像的检测精准度高,但是在视频处理时由于运动模糊的原因检测率会降低,并且网络计算复杂度高。
发明内容
本发明提出的一种录播系统中教师检测与跟踪方法及系统,是在保证教师检测准确率的情况下,降低检测模型的复杂度,并使用卡尔曼滤波对坐标进行校正和预测。
为实现上述目的,本发明采用了以下技术方案:
包括以下步骤:
S100、通过固定在教室后方的摄像头获取教师上课的场景图像,并对图像进行预处理;
S200、对预处理的图像进行缩放;
S300、把缩放后的图像放入到训练好的教师检测网络进行检测,初步获取目标的坐标点;
S400、获取的目标点通过目标检测模块的修正与补充最终送入云台进行控制跟踪。
进一步的,所述S100中的对图像进行预处理为对图像做高斯滤波预处理操作。
进一步,所述S300中的训练好的教师检测网络,其中网络架构包含两个部分:backbone和Extra Layers;
backbone部分是对浅层特征的提取,所述backbone后面加入了RFB模块,RFB是一个多分支的卷积块,内部结构包含两部分:一、不同卷积核尺度的多分支卷积,用于模拟多尺度的人眼感受野;二、虫洞卷积操作,用于模拟人类视觉感知中感受野尺度与离心率间的关系;
其中多分支结构,具体地:先1 × 1 卷积降低特征图的通道数,在每个分支上形成BottleNeck结构,再接n × n 卷积;把5×5 卷积替换为两个堆叠的3×3 卷积,不仅降低了参数量,也增加了模型的非线性能力,并进一步使用1 × n + n × 1 卷积替换n ×n 卷积,增加shortcut设计;其次通过虫洞卷积来模拟人眼感受野,具体地,每个分支的常规卷积操作后,连接一个dilates 卷积层,模拟人眼感受野的尺度与离心率。
进一步,S300中的教师检测网络整个网络的构建包含三个基本操作:basicConv层、池化层MaxPool2d、RFB层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽天虹数码科技股份有限公司,未经安徽天虹数码科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011327994.X/2.html,转载请声明来源钻瓜专利网。