[发明专利]一种基于背景建模与光流法的录播系统学生起立检测方法在审
申请号: | 201910844160.7 | 申请日: | 2019-09-06 |
公开(公告)号: | CN110728696A | 公开(公告)日: | 2020-01-24 |
发明(设计)人: | 苏寒松;李雪峰;刘高华 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/11;G06T7/66;G06Q50/20 |
代理公司: | 12201 天津市北洋有限责任专利代理事务所 | 代理人: | 刘子文 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标矩形 预置信息 向上运动 坐标信息 光流法 预置 云台 视频 嵌入式开发板 学生 背景建模 串口发送 跟踪云台 教室环境 录播系统 目标中心 全景云台 实时跟踪 运动目标 焦距 黑板 摄像机 判定 采集 指令 输出 保存 跟踪 检测 | ||
1.一种基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,包括以下步骤:
步骤1,通过教室黑板正上方全景云台摄像机获取实时学生行为的视频,运行qt程序,对于具体教室环境设置预置信息并保存参数;
步骤2,对采集得到的视频在嵌入式开发板中进行处理,获取运动目标的外接矩形,即目标矩形;
步骤3,用LK光流法找到向上运动的目标矩形;
步骤4,将向上运动的目标矩形的上顶点与步骤1中的预置信息中的预置直线进行比较,高过预置直线,判定为起立目标,输出起立目标中心点的坐标信息;
步骤5,起立目标的坐标信息与预置信息结合得出跟踪此起立目标所需的跟踪云台的角度焦距,串口发送指令给云台,使云台给起立目标特写,达到实时跟踪起立学生的效果。
2.根据权利要求1所述基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,步骤(1)包括:
(101)从显示屏上显示摄像机捕获到的实时的学生区域视频,运行qt程序,根据教室排数拖动5条预置直线,将教室学生区域分为5个区域,每个区域的学生坐下时低于该区域上方最近的预置直线,站起来高于该区域上方的预置直线;
(102)教室前方某个位置设置预置位,它在视频图像中坐标记录为posA,调节跟踪摄像机的水平角度,竖直角度和焦距,对该位置站立的学生进行特写,记录此时的水平角度为hAngleA和竖直角度vAngleA,焦距zoomA,同理在教室后方某个位置设置预置位,坐标为posB,水平角度hAngleB和竖直角度vAngleB,焦距zoomB;
(103)保留预置信息中的各个参数。
3.根据权利要求1所述基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,步骤(2)包括:
(201)对采集到的视频提取灰度信息;
(202)对灰度信息采用混合高斯模型方法处理,获取前景目标;
(203)画出前景目标的轮廓和目标矩形。
4.根据权利要求1所述基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,步骤(3)包括:
(301)用opencv中的goodFeaturesToTrack函数检测当前帧目标矩形区域的角点point1;
(302)用opencv中的calcOpticalFlowPyrLK函数检测灰度下一阵帧目标矩形区域对应于point1的角点point2;
(303)若角点的横坐标变化小于1/3轮廓的外接矩形的宽d,纵坐标变化大于1/3轮廓的外接矩形的长L,即Point2[i].y-Point1[i].y<1/2d,Point2[i].y-Point1[i].y>1/3L,判定这一帧运动方向为向上;
(304)连续5帧有向上运动趋势的目标矩形被保存。
5.根据权利要求1所述基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,步骤(4)包括:
(401)确认步骤3中筛选后的目标矩形的中心点在步骤1中所在的划分区域。
(402)找到此区域上方最近的预置直线,若目标矩形的上边高于此预置直线,判定为起立目标,输出此目标矩形的中心点的坐标。
6.根据权利要求1所述基于背景建模与光流法的录播系统学生起立检测方法,其特征在于,步骤(5)包括:
(501)步骤(4)中已经判定的起立目标的中心点的横坐标与纵坐标分别与跟踪云台摄像机的水平角度和垂直角度、焦距成线性关系,计算出起立目标对应云台的角度与摄像机焦距,进而实现对起立目标的跟踪;
(502)为减少横向抖动,下一帧检测到的目标中心点会与上一帧的目标中心点比较,若横向波动较大,但纵向偏差小,则保持当前云台视角,有效增加跟踪的稳定性。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910844160.7/1.html,转载请声明来源钻瓜专利网。