[发明专利]基于动态关联规则的网络视频事件挖掘框架在审
申请号: | 201310308489.4 | 申请日: | 2013-07-22 |
公开(公告)号: | CN103440248A | 公开(公告)日: | 2013-12-11 |
发明(设计)人: | 吴晓;张承德;彭强 | 申请(专利权)人: | 西南交通大学 |
主分类号: | G06F17/30 | 分类号: | G06F17/30 |
代理公司: | 成都信博专利代理有限责任公司 51200 | 代理人: | 张澎 |
地址: | 610031 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动态 关联 规则 网络 视频 事件 挖掘 框架 | ||
1.基于动态关联规则的网络视频事件挖掘框架,对网络视频文本和视觉信息的融合进行事件挖掘;分别处理视频信息和文本信息;
视频数据预处理,首先,采用SIFT特征中的Harris-Laplace方法进行局部特征点提取;其次,通过公用工具进行相似关键帧的检测,得到相似关键帧集;最后,利用相似关键帧集间的相关性信息,通过传递闭包进一步聚类,形成“相似关键帧集”;
文本信息预处理,从视频的标题和标签中提取的单词作为文本信息,去除无效的特殊字符,再通过词干提取对文本信息进行净化后,按如下步骤进行动态关联规则挖掘;
(1)根据相关单词的个数分成N个项目,其中N指项目中所包含的单词数目;将所有单词组成不同“组合”,并将这些“组合”按其所包含的单词数目由小到大排序;
(2)根据初始设置的支持度挖掘单词间相关性,假设每个项目中最多有K种组合;支持度的计算方法如公式1所示:
支持度
其中,Ti和Tj代表两个单词,|Ti∩Tj|指这两个单词共同出现的视频数,Min(Ti,Tj)指两个单词出现的最少视频数;
然后,利用传递闭包算法查找通过关联规则得到的数据集间的相关性,最后得到更大的集合Gt;
(3)求出不同项目中每个集合Gt在各个视觉近似关键帧中的TFIDF值,即在此支持度下各个项目在视觉近似关键帧中的分布权重,TFIDF的计算方法如公式2所示:
其中,F(i,j)指Gi在NDKj中出现的频率;ΣN(j)指NDKj中出现的所有的单词集的频率;D(Gi)指包含Gi的视觉近似关键帧的数目;N指视觉近似关键帧的总数;建立文本和视觉信息间的对应关系矩阵;
视频和文本信息融合分类:将所述文本和视觉信息间的对应关系矩阵输入分类器,计算视觉近似关键帧与每个类的相似度,以F1值为评判标准,不断调整步骤(2)中的支持度并最终找到使关联效果评价因子F1值最大的项目的长度和支持度,并将该F1值条件下对应的视觉近似关键帧所包含的视频归入到与它相似度最高的类,从而完成网络视频事件的分类处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学,未经西南交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310308489.4/1.html,转载请声明来源钻瓜专利网。