[发明专利]一种基于场景先验知识的人体行为识别方法在审
申请号: | 202011470438.8 | 申请日: | 2020-12-14 |
公开(公告)号: | CN112560668A | 公开(公告)日: | 2021-03-26 |
发明(设计)人: | 袁家斌;刘昕;王天星 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 陈国强 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 场景 先验 知识 人体 行为 识别 方法 | ||
1.一种基于场景先验知识的人体行为识别方法,其特征在于,包括以下步骤:
S1.对输入视频进行预处理;
S2.建立室内场景-人体行为先验知识库;
S3.建立视频场景识别模型和人体行为识别模型;
S4.模型训练和测试;
S5.输入视频进行人体行为识别,得到人体行为分类。
2.根据权利要求1所述的基于场景先验知识的人体行为识别方法,其特征在于,所述步骤S1的具体步骤为:
S11.任意抽取视频的一帧作为场景图像,抽取后建立该场景图像与视频的映射关系;
S12.利用TSN方法对输入的视频进行稀疏采样,按帧数平均分割为N个片段,从每个片段中随机抽取一帧,光流图使用OpenCV中的TV-L1方法获取后,同样使用TSN方法,从每个Segment中随机抽取一帧光流图像;
S13.预处理后的图像均使用中心裁剪,大小为224×224,单位为像素。
3.根据权利要求1所述的基于场景先验知识的人体行为识别方法,其特征在于,所述步骤S2的具体步骤为:
S21.对先验知识进行量化,不同场景的先验知识Gj表示为:其中:表示第j个场景下发生第t个动作的先验概率;
S22.先验知识库中保存所有场景下的先验知识,从场景到行为的映射关系GS表示为:GS=(G1,G2,……,Gj)T,其中,Gj表示第j个场景下的先验知识,T指的是转置。
4.根据权利要求1所述的基于场景先验知识的人体行为识别方法,其特征在于,所述步骤S3的具体步骤为:
S31.选择ResNet152作为场景识别的网络模型,将该网络在Places365和SUN397大型数据集上进行预训练;
S32.建立基于I3D的改进网络模型M,将先验知识在softmax函数中与预测的分类结果按先验知识的影响因子μ融合得到最终的预测结果,通过对比标签值与softmax函数的预测结果,对于有k个分类的训练集,优化损失函数其中:Y表示正确的标签值,y表示最终的预测值,Yt为标签值,yt为预测值,Y=Yt。
5.根据权利要求1所述的基于场景先验知识的人体行为识别方法,其特征在于,所述步骤S4的具体步骤为:
S41.将场景图输入场景识别模型进行场景分类,取识别结果的TOP-3,将此结果按100%的比例重新进行计算;
S42.基于步骤S41的结果,将每个场景对应的先验知识按照场景比重,重新计算为新的融合场景先验知识;
S43.网络模型M采用模块化的结构,网络模型M包括卷积层、最大池化层、平均池化层、Inception模块以及最后的softmax,引入融合场景先验知识对softmax的权值进行约束,使softmax的最终输出排除某几类不可能的行为分类,网络模型M在I3D的基础上额外增加了2个辅助的softmax用于向前传导梯度,这两个辅助分类器将中间某一个Inception模块的输出作为分类,两个辅助分类器均按照权重值融合到最终分类结果中,但在最终的测试中,这两个辅助分类器会被去掉。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011470438.8/1.html,转载请声明来源钻瓜专利网。