[发明专利]基于约减字典低秩表示的异常检测方法在审
申请号: | 201810372068.0 | 申请日: | 2018-04-24 |
公开(公告)号: | CN108875552A | 公开(公告)日: | 2018-11-23 |
发明(设计)人: | 解文彬;殷宏;许继恒;芮挺;廖湘琳;吴波;许艾;顾娟;张所娟;李雯 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 王玮 |
地址: | 210007 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 字典序 异常检测 低秩 降序 字典 语义 底层结构 动态场景 时空信息 实时检测 视频数据 梯度特征 稀疏编码 正常特征 多尺度 结构化 近似法 稀疏性 自适应 算法 稀疏 学习 三维 基数 驱动 | ||
1.一种基于约减字典低秩表示的异常检测方法,其特征在于包括以下步骤:
步骤1,提取时空特征;在视频序列中对3维的时空体STV进行采样,在空间非重叠区域中提取三维梯度特征,并在同一区域内连续叠加n个连续的帧,构成一组时空特征;
步骤2,组稀疏字典学习;将低等级的近似和稀疏组合学习结合起来,从训练特征中获取正常的字典序;利用k-均值聚类在每个空间位置上的时空立方体STV上强制执行,并利用低阶近似算法捕获正常字典序,直到所有训练数据都能被表示出来;
步骤3,异常事件检测;在测试阶段,搜索一个字典表示每个测试数据,确定测试数据是否异常。
2.根据权利要求1所述的异常检测方法,其特征在于:所述步骤1中,三维梯度表示为[Gx,Gy,Gt]T,其中x,y,t分别表示视频序列的水平轴、纵轴和时间轴,G表示像素的梯度,Gx、Gy、Gt分别表示像素在三个坐标轴上的投影;每个时空卷由大小为lx×ly×lt的所有像素构成,其中lx×ly、lt分别表示时空卷的空间大小和时间长度;在STV中计算每个像素的三维梯度作为特征。
3.根据权利要求1所述的异常检测方法,其特征在于:所述步骤2的具体实现方法为:
步骤2.1,对于STV中的每个空间位置,视频序列中的三维时空梯度特征表示为X=[x1,x2,…,xn],其中xi∈Rm(i=1,2,…,n)表示每个特性的维数,构建字典D=[D1,D2,…,DN]表示每个位置的所有训练特征并且cj是字典Dj中基的数量,目标函数初始化为:
γi,j的值决定字典Dj是否包含特征xi的值,βi,j表示特征xi在字典Dj中的系数,T是所有训练特征的重构错误阈值;和γi,j={0,1}确保特征xi只被一个字典选择;固定Dj和βi,j,γi,j有解析解:
步骤2.2,计算一组相似特征的低秩结构,引入低阶近似算法,学习基础组稀疏字典;
给一组相似特征X=[x1,x2,…,xn],奇异值分解SVD为X=UΛVT,Λ=diag(λ1,λ2,…,λr)和U∈Rm×rr表示算法优化的等级;低阶近似模型表示为:
低阶近似模型表示为:
τ是一个正则化参数,ωi表示ith奇异值λi的系数,解析解为:
操作符表示将奇异值缩减到阈值τ·ωi以下,系数β表示为
步骤2.3 在STV的所有空间位置采用k-均值聚类;在低阶近似算法的每一个SVD中,通过调整奇异值的权重向量来适应字典中的基数,权重向量基于剩余的特征,与奇异值向量成反比。
迭代执行k-均值聚类,对每一个聚类组进行低阶近似:
j=1,2,…,N表示第jth迭代,是第jth次迭代中的第cth特征聚类的特征数量,和分别是jth次迭代中的cth层聚类特征和获得的字典,函数f(·)将集群中的一个特性的索引号映射到原始输入数据集中的特性的索引号,方程(5)的解析解为:
使用方程(6)的结果,最初的字典Dj和βj通过块坐标下降进一步优化;
的每一个解析解为:
当更新时,更新方程是:
δt是学习率,迭代执行公式(7)和(8)直到方程(5)的目标函数收敛;
步骤2.4 调整目标函数(3)被更新为
是稀疏系数和表示系数矢量;
解析解为:
迭代执行步骤2.4,直到所有的训练特性都符合所获得的字典。
4.根据权利要求1所述的异常检测方法,其特征在于:所述步骤3异常事件检测的具体过程为:
步骤3.1 给定一个测试特征x并将学习得到的字典序设为D=[D1,D2,…,DN],通过最小的平方误差来计算每个测试特征的重构错误:
式(8)中的βk最优求解方案:
重构误差:
步骤3.2 当所有字典的重构误差都大于某一阈值时,测试特征被认为是异常的事件。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810372068.0/1.html,转载请声明来源钻瓜专利网。