[发明专利]基于动态关联规则的网络视频事件挖掘框架在审
申请号: | 201310308489.4 | 申请日: | 2013-07-22 |
公开(公告)号: | CN103440248A | 公开(公告)日: | 2013-12-11 |
发明(设计)人: | 吴晓;张承德;彭强 | 申请(专利权)人: | 西南交通大学 |
主分类号: | G06F17/30 | 分类号: | G06F17/30 |
代理公司: | 成都信博专利代理有限责任公司 51200 | 代理人: | 张澎 |
地址: | 610031 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动态 关联 规则 网络 视频 事件 挖掘 框架 | ||
技术领域
本发明属于数据挖掘领域,具体涉及热点话题检索与跟踪中大规模网络视频事件挖掘研究。
背景技术
社交网络的流行使得网络视频爆炸式的增长,浏览海量网络视频时的一个关键任务是事件挖掘。随着多媒体技术、网络技术和有线电视的发展,视频已经成为人们日常生活中获取信息和享受娱乐的主要载体。到2009年9月,大约每分钟有20小时的新视频数据上传到YouTube。YouTube占用了整个互联网约10%的流量,占据总在线视频量的60%。互联网已经成为多媒体信息发布和共享中心,同时网络电视台、“播客”已经成为互联网上重要的多媒体信息获取渠道。社交网络爆炸式的增长使得数以百万计的网络视频可供人们观看,大量的视频在互联网上传输,通过互联网搜索并观看丰富的视频内容已成为广大网民获取信息的主流方式。面对互联网上的海量视频数据,如何对大规模视频数据进行有效的事件挖掘已成为一项迫切的用户需求,也是新一代视频搜索引擎的主要研究热点问题。
目前,由于网络视频的多样性,相对较模糊的视频图像质量以及视频后期编辑处理,使得仅仅使用视觉信息进行事件挖掘变得更加困难。因此,最近多通过视觉和文本信息融合的方式进行事件挖掘。然而,有限的标题和标签等文本信息却通常使用笼统、概括、模糊的单词来大致的概括视频的主要内容,其中包含较多嗓音,不准确,甚至是误导或者错误的标签。这些标题和标签通常较短,寥寥数词无法囊括视频中丰富的内容,这给网络视频事件挖掘带来了新的挑战。
发明内容
鉴于现有技术的以上缺点,为了克服文本信息的缺点和不足,能够更好的进行文本和视觉信息的融合。本发明的目的是提出一种基于动态关联规则的网络视频事件挖掘框架,使之克服现有技术的以上缺
本发明的目的通过如下手段来实现的。
1、基于动态关联规则的网络视频事件挖掘框架,对网络视频文本和视觉信息的融合进行事件挖掘;分别处理视频信息和文本信息;
视频数据预处理,首先,采用SIFT特征中的Harris-Laplace方法进行局部特征点提取;其次,通过公用工具进行相似关键帧的检测,得到相似关键帧集;最后,利用相似关键帧集间的相关性信息,通过传递闭包进一步聚类,形成“相似关键帧集”;
文本信息预处理,从视频的标题和标签中提取的单词作为文本信息,去除无效的特殊字符,再通过词干提取对文本信息进行净化后,按如下步骤进行动态关联规则挖掘;
(1)根据相关单词的个数分成N个项目,其中N指项目中所包含的单词数目;将所有单词组成不同“组合”,并将这些“组合”按其所包含的单词数目由小到大排序;
(2)根据初始设置的支持度挖掘单词间相关性,假设每个项目中最多有K种组合;支持度的计算方法如公式1所示:
支持度
其中,Ti和Tj代表两个单词,|Ti∩Tj|指这两个单词共同出现的视频数,Min(Ti,Tj)指两个单词出现的最少视频数;
然后,利用传递闭包算法查找通过关联规则得到的数据集间的相关性,最后得到更大的集合Gt;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学,未经西南交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310308489.4/2.html,转载请声明来源钻瓜专利网。