[发明专利]一种基于光流场统计特征的场景分析方法及系统有效
申请号: | 201910558959.X | 申请日: | 2019-06-26 |
公开(公告)号: | CN110472478B | 公开(公告)日: | 2022-09-20 |
发明(设计)人: | 樊亚文;周全;康彬 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V10/762 | 分类号: | G06V10/762;G06V10/764;G06V20/70;G06V10/62;G06V20/40;G06V20/52;G06T5/00 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 牛莉莉 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 光流场 统计 特征 场景 分析 方法 系统 | ||
本发明涉及了一种基于光流统计特征的场景分析方法及系统,所述方法步骤为:对给定的监控视频,计算基本的光流场,并对其进行幅度和基于统计特征的去噪;提取光流场空间分布统计特征,空间位置量化;提取光流场方向分布统计特征,进行运动方向量化;基于量化结果构建视觉词典,将整个视频分成片段,将其中所包含的光流映射成视觉单词,每个片段由视觉单词累计表示成词袋;将词袋输入到HDP模型,提取每个视频片段对应的特征向量;采用谱聚类对所有的特征向量进行聚类,实现场景的分类。本发明可以有效地对光流去噪及量化,检测出同一场景中的不同运动模式,实现场景分类,对于视频监控中的场景分析具有重要的现实意义和实用价值。
技术领域
本发明涉及一种基于光流场统计特征的场景分析方法及系统,属于智能视频监控技术领域。
背景技术
视频监控一直是计算机视觉领域中一个活跃的应用方向,它的目的是检测、跟踪以及识别感兴趣的目标,对监控场景进行分析。而许多监控场景,如十字路口、火车站、机场和购物购物中心等都很拥挤,运动目标之间频繁遮挡,因此大多数基于目标表示的场景分析方法难以实现。因此另一类直接基于像素表示的方法更适合复杂监控场景分析,其中使用最多的一种是光流。经对现有技术文献检索发现,光流的计算一般涉及到相邻帧间单个像素的运动矢量提取,包含了大量的局部运动信息。为了减少潜在的观测噪声,通常会用一个预定义的阈值对光流场的进行幅值过滤。并通常将图像空间分割成固定尺寸的单元格,对运动像素点的位置进行量化,还会将每个单元格中的像素点运动方向进行固定的量化(如4或8个方向)。尽管许多研究提出直接基于底层运动特征进行场景建模分析,但是他们假设每一个视频片段内只包含一个类型的运动模式,并将每个视频片段由一种类型的运动类型标注。然而在拥挤和复杂的场景中,许多类型的运动模式通常是同时发生的,传统的一些方法难以将这些同时发生的行为分开。总体来说基于底层运动特征进行场景分析依然存在一些问题,主要包括以下几点:1)采用单一的光流场去噪方法,为考虑到未考虑视频监控场景中实际的运动分布特征;2)光流的位置和方向均是固定阶数的量化,降低量化精度会造成空间位置和方向分辨率的损失;但是一味提高量化精度会造成数据量增加,也不一定能否改善场景分析的性能;3)在多种运动模式共存的情况下,不能有效检测出每个运动模式,并对场景进行分类。
发明内容
本发明的目的在于:针对现有技术存在的缺陷,提出了一种基于光流场统计特征的场景分析方法及系统,可以对光流场进行有效的去噪及非均匀量化;利用HDP模型建模,采用特征向量描述视频片段,然后通过谱聚类检测出一个场景中包含的多种运动模式,实现场景分类。
为了达到以上目的,本发明提供了一种基于光流场统计特征的场景分析方法及系统,包括如下步骤,
S1:对任意给定的监控视频,计算其光流场;
S2:对光流场进行去噪,获取有效光流场;
S3:提取光流场的空间分布统计特征,对空间位置进行量化;
S4:提取光流场的方向分布统计特征,对运动方向进行量化;
S5:将光流场在时域上分割成不重叠的片段,并将其表示成词袋;
S6:将词袋输入HDP模型,提取每个视频片段对应的特征向量。
S7:利用谱聚类算法对特征向量进行聚类,实现场景的分类。
进一步的,所述步骤1中,所述光流场的计算方法为:对于长度为N+1帧的视频,采用LK光流法,计算相邻帧间的光流场,结果表示为
{Oi(x,y)},i=1,2,...,N,
其中(x,y)表示图像帧的空间位置点。
进一步的,所述步骤2中,光流场的去噪方法的具体步骤为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910558959.X/2.html,转载请声明来源钻瓜专利网。