[发明专利]基于部件因果关系的视频行为识别方法有效
申请号: | 201711415788.2 | 申请日: | 2017-12-25 |
公开(公告)号: | CN108256435B | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 同鸣;闫娜;陈逸然;田伟娟 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06T7/269 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;朱红星 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 行为识别 因果关系 语义表示 视频 中层 轨迹点 准确率 成对部件 底层特征 计算部件 人机交互 分类器 描述子 构建 聚类 可用 稠密 | ||
1.一种基于部件因果关系的视频行为识别方法,包括如下步骤:
(1)对所有行为视频提取稠密轨迹,获取所有轨迹点的3D坐标,并构建方向梯度直方图HOG和光流方向直方图HOF,将HOG和HOF进行串接后作为轨迹的底层特征;
(2)利用轨迹点的3D坐标,对轨迹进行k-means聚类,以获取行为部件;
(3)将行为视频V所属行为类别中的任意两个不同的行为部件表示为Xu和Xv,构成成对的部件表示(Xu,Xv),利用Xu和Xv对应轨迹的底层特征,来训练(Xu,Xv)对应的部件分类器获取行为视频V在下的判分score(V,(Xu,Xv)),其中,u,v∈[1,b]且u≠v,u表示行为部件Xu的索引,v表示行为部件Xv的索引,b为行为视频V所属行为类别中的部件个数;
(4)利用格兰杰因果关系方法,计算两个部件的因果关系比率,其中包括Xu对Xv的因果关系比率CRu,v,以及Xv对Xu的因果关系比率CRv,u,并计算视频V在成对部件(Xu,Xv)下,Xu对Xv的因果关系强度以及Xv对Xu的因果关系强度
(5)将视频V在其所属类别中,所有成对部件下的因果关系强度进行串接,得到视频V的部件间因果关系描述子MFeat_cas(V),并将其作为中层语义表示;
(6)将获取的中层语义表示进行PCA降维,获取降维后的中层语义表示;
(7)将所有行为视频分为训练集和测试集,利用训练集对应降维后的中层语义表示,训练中层语义的SVM分类器,将测试集对应降维后的中层语义表示,输入到训练好的SVM分类器中进行测试,获取行为识别的结果。
2.根据权利要求1所述的方法,其中所述步骤(2),按如下步骤进行:
(2a)对于每类视频中的任意两条轨迹Tf和Tm,其时域重叠区间为o(Tf,Tm),计算这两条轨迹Tf和Tm的空间距离为dfm:
其中,Tf表示第f条轨迹,Tm表示第m条轨迹,和分别表示轨迹Tf和Tm在第t帧上的坐标,avg(·)表示求取平均值,||·||2表示求取欧氏距离,f,m∈[1,B]且f≠m,B为轨迹的数目;
(2b)利用轨迹间的空间距离,对每类视频的轨迹进行k-means聚类,获取k个聚类簇,也就是k个行为部件。
3.根据权利要求1所述的方法,其中步骤(4)中利用格兰杰因果关系方法,计算两个部件的因果关系比率,按如下步骤进行:
(4a)根据格兰杰因果关系法,用pt和qt分别表示两个不同的信号;
(4b)pt的两种预测表示形式为:
只利用pt过去的样本,来预测pt的形式:
利用pt和qt两种过去的样本,共同预测pt的形式:
其中,B表示只利用pt过去的样本来预测pt时,pt过去的样本对应的预测系数矩阵;
E表示利用pt和qt过去的样本共同预测pt时,pt过去样本对应的预测系数矩阵;
R表示利用pt和qt过去的样本共同预测pt时,qt过去样本对应的预测系数矩阵;
ε1表示只利用pt过去的样本来预测pt产生的预测误差,其方差为Σ1;
ε2表示利用pt和qt过去的样本共同预测pt产生的预测误差,其方差为Σ2;
表示pt延时了h的m阶信号;
表示qt延时了h的m阶信号;
(4c)利用ε1的方差Σ1和ε2的方差Σ2,计算qt对pt的因果关系比率:CRq,p=trace(∑1)/trace(∑2),trace(·)表示矩阵求迹;
(4d)分别对两个不同部件Xu和Xv内的轨迹求平均,得到平均轨迹和将和视为两个信号,利用(4a)~(4c)中的方法,分别计算对的因果关系比率和对的因果关系比率
(4e)进一步分别计算Xu对Xv的因果关系比率CRu,v和Xv对Xu的因果关系比率CRv,u:
其中,Nu和Nv分别表示部件Xu和Xv中轨迹的数目。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711415788.2/1.html,转载请声明来源钻瓜专利网。