[发明专利]基于DAMR_3DNet的动作识别方法在审
申请号: | 202111113825.0 | 申请日: | 2021-09-23 |
公开(公告)号: | CN113850182A | 公开(公告)日: | 2021-12-28 |
发明(设计)人: | 田秋红;张元奎;孙文轩;章立早 | 申请(专利权)人: | 浙江理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 林超 |
地址: | 310018 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 damr_3dnet 动作 识别 方法 | ||
1.一种基于DAMR_3DNet的动作识别方法,其特征在于,包括下列步骤:
步骤1)读取动作数据集中各类别的动作视频,并获取各个动作视频的类别标签,对每个动作视频进行预处理得到视频帧序列,将视频帧序列作为训练数据集,训练数据集包括训练集和测试集;
步骤2)构建DAMR_3Dnet模型:DAMR_3Dnet模型包括依次连接的D-3Dnet模块、注意力机制模块和3D Residual模块;
2.1)将视频帧序列输入D-3Dnet模块中提取动作视频的低层时空特征信息;
2.2)D-3DNet提取的低层时空特征信息输入注意力机制模块中提取具有通道间信息以及空间信息的注意力特征图;
2.3)将步骤2.2)提取的注意力特征图作为3D Residual Module的输入进一步提取高层时空特征;
2.4)3D Residual Module提取的高层时空特征经Flatten操作将多维特征进行一维化,最后通过SoftMax分类器进行动作分类,得到分类的结果;
步骤3)训练数据集输入步骤2)构建的DAMR_3Dnet模型进行训练;
步骤4)待分类的动作视频输入DAMR_3Dnet模型中进行动作分类识别,得到分类结果。
2.根据权利要求1所述的一种基于DAMR_3DNet的动作识别方法,其特征在于:所述步骤1)中的预处理具体为:
1.1)通过openCv中的cv2.CAP_PROP_FRAME_COUNT方法依次获取每个动作视频的所有帧数;
1.2)采用稀疏采样的方法依次对每个类别的每个动作视频提取指定帧数的视频帧序列;
1.3)对提取的视频帧序列中的每个视频帧进行尺寸归一化处理。
3.根据权利要求1所述的一种基于DAMR_3DNet的动作识别方法,其特征在于:所述步骤2.1)具体为:
2.1.1)D-3Dnet模块的输入为视频帧序列,视频帧序列经第一卷积层后得到提取后的特征图;
2.1.2)将步骤2.1.1)卷积后提取的特征图输入第一最大池化层,对经过第一池化层的特征图采用解耦合卷积操作后分别得到空间特征和时间特征,通过Add操作融合空间特征和时间特征;
2.1.3)将步骤2.1.2)融合后的特征图输入第二最大池化层,对经过第二池化层的特征图采用解耦合卷积操作后分别得到空间特征和时间特征,通过Add操作融合空间特征和时间特征;
2.1.4)将步骤2.1.3)融合后的特征图输入第三最大池化层,对经过第三池化层的特征图采用解耦合卷积操作后分别得到空间特征和时间特征,通过Add操作融合空间特征和时间特征;
2.1.5)将步骤2.1.4)融合后的特征图输入第四最大池化层,对经过第四池化层后的特征图使用3×3×3的卷积核进行卷积操作;
2.1.6)将步骤2.1.5)卷积得到的特征图输入第五最大池化层,得到降采样后的特征图为D-3DNet模块的输出特征。
4.根据权利要求3所述的一种基于DAMR_3DNet的动作识别方法,其特征在于:所述解耦合卷积操作为将特征图分别经过3×3×1的空间维度卷积和1×1×3的时间维度卷积后得到空间特征和时间特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江理工大学,未经浙江理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111113825.0/1.html,转载请声明来源钻瓜专利网。