[发明专利]一种视频场景检测方法有效
申请号: | 201510427821.8 | 申请日: | 2015-07-20 |
公开(公告)号: | CN105005772B | 公开(公告)日: | 2018-06-12 |
发明(设计)人: | 童云海;杨亚鸣;丁宇辰;郜渊源;蒋云飞 | 申请(专利权)人: | 北京大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京万象新悦知识产权代理事务所(普通合伙) 11360 | 代理人: | 张肖琪 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公布了一种视频场景检测方法,该方法通过计算机代替人工对视频数据进行检测,识别出视频中的场景;检测方法包括离线训练判别模型过程和视频场景检测过程。离线训练判别模型过程,针对训练视频样本集中每个视频抽取特征,包括语义和时空特征抽取;对特征向量进行类别标注,得到了一组样本集;利用多核学习框架对样本集进行迭代训练,得到离线训练模型;视频场景检测过程接入监控视频源;进行视频采样得到一个短视频;对短视频抽取特征;载入离线训练模型对特征进行检测,得到检测结果。本发明通过计算机代替人工识别视频中的场景,可提高检测效率,降低成本,对数据存储和检索也提供便利。 | ||
搜索关键词: | 检测 离线训练 视频场景 视频 抽取 判别模型 样本集 数据存储和检索 对视频数据 场景 语义 迭代训练 检测结果 接入监控 类别标注 人工识别 时空特征 视频采样 特征向量 训练视频 视频源 计算机 多核 样本 载入 便利 学习 | ||
【主权项】:
一种视频场景检测方法,通过计算机代替人工对视频数据进行检测,识别出视频中的场景;检测方法包括离线训练判别模型过程和视频场景检测过程:1)离线训练判别模型过程,执行如下操作:11)准备训练视频样本集;12)针对训练视频样本集中每个视频抽取特征,特征为向量形式,包括语义特征向量和时空特征向量;语义特征抽取过程具体包括如下步骤:121a)对每个视频,通过关键帧提取方法计算每帧图片的得分,选取得分最高的m帧图片作为关键帧,得分计算公式如下:Sdiff(fk)=∑i,j|Ik(i,j)‑Ik‑1(i,j)| (式2)式1~式3中,fk表示视频序列中第k帧图片;score(fk)表示第k帧图片的得分;Sdiff(fk)表示该帧与前一帧的差异量;α、β分别为权重;Max_Sdiff和Min_Sdiff分别为相邻两帧间的最大差值和最小差值;和分别表示第k帧图片中像素i光流的水平方向的变化量和垂直方向的变化量;Nk表示第k帧像素个数;MoValue(fk)表示第k帧的光流强度;Max_MoValue表示所有帧中最大光流强度;Min_MoValue表示所有帧中最小光流强度;121b)对选取的m帧图片,针对每帧图片,用达特茅斯classeme特征提取方法提取图片语义特征,得到该帧图片的语义特征向量;121c)将提取m帧图片得到的m个实数特征向量进行拼接,得到一个m*2659维的向量,作为该视频的语义特征向量;时空特征抽取过程具体包括如下步骤:122a)对每个训练视频,通过MoSIFT特征提取方法抽取得到MoSIFT特征;122b)基于视频集中所有MoSIFT特征,生成视觉词典;122c)利用上述视觉词典,对每个视频进行费舍尔向量编码,得到一个2*D*K维的费舍尔向量;122d)对上述费舍尔向量实施主成分分析,得到一个低维向量,该低维向量为视频的时空特征向量;13)对特征向量进行类别标注,得到了一组样本集,每个样本包含语义特征向量和时空特征向量,并对应一个类别标注;14)利用多核学习框架对步骤13)所述样本集进行迭代训练,得到一个离线训练模型;2)视频场景检测过程,执行如下操作:21)接入要检测的监控视频源;22)设置采样方式进行视频采样,得到一个短视频;此短视频为检测目标;23)对步骤22)所述短视频抽取特征,包括语义特征向量和时空特征向量,抽取方法与训练过程中步骤12)相同;24)利用多核学习框架载入离线训练模型,对特征进行检测判别,判定是否为指定场景,得到检测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201510427821.8/,转载请声明来源钻瓜专利网。