[发明专利]一种基于图神经网络的目标辅助的动作识别方法有效
申请号: | 201910817670.5 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110532960B | 公开(公告)日: | 2022-02-11 |
发明(设计)人: | 王乐;翟长波;谭浩亮 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V40/10;G06V10/764;G06V10/82;G06K9/62 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 孟大帅 |
地址: | 710049 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于图神经网络的目标辅助的动作识别方法,包括:首先利用深度神经网络计算视频每一帧的深度特征,并且根据每一帧的深度特征来提取视频帧内每一个目标边界框对应目标的特征,这些目标之间具有交互关系或者在时间前后具有对应关系,利用这些目标的特征和它们之间的关系构建图模型;然后构建两个映射函数自动的计算任意两个节点之间的相似度,用此相似度来控制图模型上节点特征信息的迭代更新过程中的信息交互,对图模型上节点的特征进行迭代更新;最后利用更新之后的目标特征和原视频的特征进行动作分类来实现视频的动作识别,可提升动作识别的准确性。 | ||
搜索关键词: | 一种 基于 神经网络 目标 辅助 动作 识别 方法 | ||
【主权项】:
1.一种基于图神经网络的目标辅助的动作识别方法,其特征在于,包括以下步骤:/n步骤1,对待动作识别的原视频进行降采样,采样获得的视频帧序列为V={v1,v2,…,vi,…vT},其中vi表示第i个视频帧,共采样出T帧;将视频帧序列输入给深度神经网络,获得每一帧的深度特征;/n步骤2,根据视频帧序列中每一帧的深度特征以及其对应的帧内目标的边界框信息,提取获得每一帧内所有目标边界框的特征;通过所有目标边界框的特征对图模型的节点进行初始化,获得初始化后的图模型;/n步骤3,构造两个映射函数,通过映射函数计算图模型中任意两个节点之间的相似性;/n步骤4,根据步骤3中构建的映射函数,通过图更新的过程迭代更新图模型的节点特征信息,直到节点特征达到收敛;/n步骤5,对更新之后的节点特征进行平均池化得到目标交互特征表示,对视频帧序列所有帧的深度特征进行平均池化得到全局视频特征表示;将池化得到的目标交互特征和全局视频特征拼接获得最终的视频特征表示,对最终的视频特征进行分类,完成动作识别。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910817670.5/,转载请声明来源钻瓜专利网。