[发明专利]一种基于非对称多流的动作检测方法有效
申请号: | 201910458481.3 | 申请日: | 2019-05-29 |
公开(公告)号: | CN110263666B | 公开(公告)日: | 2021-01-19 |
发明(设计)人: | 王乐;康子健;刘子熠;郑南宁 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 范巍 |
地址: | 710049 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 称多 动作 检测 方法 | ||
1.一种基于非对称多流的动作检测方法,其特征在于,包括以下步骤:
步骤1,采集若干已标注视频标签的先验视频,从先验视频的帧信息中提取RGB图像和光流;通过提取的RGB图像并结合视频标签训练卷积神经网络,获得训练好的RGB图像单流网络;通过提取的光流并结合视频标签训练卷积神经网络,获得训练好的光流单流网络;
步骤2,通过步骤1获得的训练好的RGB图像单流网络和光流单流网络,分别提取步骤1采集的先验视频中每帧的图像流特征信息和光流特征信息;
步骤3,根据步骤2提取的图像流特征信息和光流特征信息,并结合动作标签,训练非对称双流网络,最终获得训练好的非对称双流网络;其中,非对称双流网络训练的过程包括:将图像流特征信息和光流特征信息结合作为输入,输出多流分类结果和多流注意力权重,加权多流分类结果获得视频分类向量,最小化非对称双流网络的损失函数;
步骤4,通过步骤1获得的训练好的RGB图像单流网络和光流单流网络,分别提取待检测的目标视频中每帧的图像流特征信息和光流特征信息;
步骤5,根据步骤4提取的图像流特征信息和光流特征信息,获得目标视频的段特征;将目标视频的段特征输入步骤3获得的训练好的非对称双流网络,输出段分类向量和段注意力权重;根据段分类向量和段注意力权重计算获得视频分类向量;
步骤6,从步骤5获得的视频分类向量中选择置信度大于预设值的动作作为潜在动作;其中,对于潜在动作a,从步骤5中获得的段分类向量中抽取潜在动作a的分类权重,获得潜在动作a的动作识别序列;通过潜在动作a的动作识别序列完成动作a的检测;
其中,步骤3的非对称双流网络训练的过程中,图像流和光流信息结合的方式为:将光流特征信息作为主信息流;将图像流特征信息和光流特征信息进行降维与融合后,作为辅助信息流;将主信息流与辅助信息流拼合获得双流特征信息;
步骤3中,非对称双流网络的训练过程包括:
对输入的多流信息非对称降维和融合,所述多流信息包括主信息流和辅助信息流;其中,非对称降维表示不同流信息降维比例不同,融合指使用相加、拼接或神经网络合并特征向量;
使用分类神经网络处理融合了非对称双流信息的特征向量,输出对应输入特征的分类向量x和注意力权重λ;
通过softmax方法对分类向量和注意力权重归一化;通过对来自视频中多个的分类向量和注意力权重进行加权求和,获得视频分类向量。
2.根据权利要求1所述的一种基于非对称多流的动作检测方法,其特征在于,步骤6中还包括:使用阈值将获得的动作识别序列中的误动作剔除,获得剔除误动作后的动作识别序列;对剔除误动作后的动作识别序列进行最近邻插值,获得与目标视频帧数一一对应的激活序列;根据激活序列提取获得动作片段和动作片段置信度。
3.根据权利要求2所述的一种基于非对称多流的动作检测方法,其特征在于,步骤6中使用的阈值为经验值或自适应阈值;
其中,自适应阈值在非对称双流网络训练时统计,具体步骤包括:
预设自适应阈值比例为pth,pth表示自适应阈值所对应的分位数,分位数为小于1大于0的小数;
统计所有先验视频的注意力权重,注意力权重序列其中λt为序列中得第t位;对序列K重新排序,使得λi<λj,i<j,其中i,j为排序后得序号;
取排在第[m*pth]位的权重为自适应权重;其中,[]表示取整。
4.根据权利要求1所述的一种基于非对称多流的动作检测方法,其特征在于,步骤3中,
获得辅助信息流的步骤包括:将输入的光流特征和图像流特征降维,使用全连接或双线性神经网络融合降维的光流特征和特性特征;
另外,辅助信息流降维比例大于主信息流的降维比例;辅助信息流降维比例大于0且小于1/4。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910458481.3/1.html,转载请声明来源钻瓜专利网。