[发明专利]人机共存环境下基于视觉的多运动人体目标跟踪方法有效
申请号: | 201910447570.8 | 申请日: | 2019-05-27 |
公开(公告)号: | CN110363799B | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 欧林林;金燕芳;禹鑫燚;来磊;张铭杨 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06K9/46;G06K9/62;G06N3/08 |
代理公司: | 杭州天正专利事务所有限公司 33201 | 代理人: | 王兵;黄美娟 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人机 共存 环境 基于 视觉 运动 人体 目标 跟踪 方法 | ||
1.人机共存环境下基于视觉的多运动人体目标跟踪方法,具体步骤如下:
步骤1:构建压缩Mask R-CNN模型;
步骤2:进行图像序列中第k帧输入,并判断是否为初始帧;若为初始帧,则进入步骤3,若为非初始帧,则进入步骤4;
步骤3:将当前帧k中检测到的多个人体目标分别标记ID;令k=k+1,进入步骤2;
步骤4:使用直方图特征匹配法,实现多人运动的跟踪;
步骤5:k=k+1,迭代步骤2;
其中,步骤1中所述的构建压缩Mask R-CNN模型,具体步骤如下:
步骤1-1:导入预训练好的大型Mask R-CNN模型;
步骤1-2:使用Mask R-CNN模型共享卷积层中的每一个激励函数输出和对应梯度值乘积之和作为模型代价函数C;
步骤1-3:依次修剪共享卷积层中的卷积核,即将该卷积核hi赋值为0,计算修剪前后的损失ΔC(hi),作为贡献度排序指标;
步骤1-4:根据各卷积核hi对应的损失ΔC(hi)进行贡献度排序,修剪贡献度低的参数;
步骤1-5:对修剪后的模型,在数据集上重新进行小型的训练,完成神经网络模型的微调;
步骤1-6:将微调后的神经网络模型用于图像目标检测,判断各项指标是否达到预期目标;若是,结束剪枝;否则迭代步骤3;
其中步骤4中所述直方图特征匹配,具体步骤如下:
步骤4-1:计算当前k帧中目标i的直方图特征向量与k-1帧中所有目标j的直方图特征向量然后将目标i的与k-1帧中所有目标j的直方图特征向量余弦相似度计算,得到j个相似度计算结果;
由于彩色图片由R、G、B三色通道,且每一个通道以1×256维向量表示;因此,可用1×768维向量来描述任意像素点的颜色;按照行列搜索代表目标的矩形框,用n表示矩形框内任意一个像素点出现的次数,则第k帧中,目标i的直方图特征向量以目标矩形框的长L与宽W归一化后的特征向量可表示为:
与的余弦相似度计算公式为:
步骤4-2:选取最大的余弦相似度MAXO;若大于预先设定阈值,将目标i与MAXO对应的k-1帧目标标记为同一目标ID,进入步骤4-4;否则进入步骤4-3;
步骤4-3:判定目标i为区别于前一帧的新目标,并将新目标与用于记录一段时间内已丢失目标特征参数的缓存区的各目标进行余弦相似度计算,选取计算结果中的最大值MAXc;若大于预先设定阈值,将目标i标记为缓存区中对应的目标ID,否则标记新目标ID;
步骤4-4:判定当前k帧目标是否已全部标记完毕;若是,进入步骤4-5;若k帧目标未全部标记完毕,令i=i+1,迭代步骤4-1;
步骤4-5:比较k帧与k-1帧中的ID个数;若k帧中的ID个数小于k-1帧,则将未被匹配来自k-1帧的目标特征参数放入缓存区中。
2.根据权利要求1所述的人机共存环境下基于视觉的多运动人体目标跟踪方法,其特征在于:步骤2中,对训练好的Mask R-CNN模型,定义模型损失函数:
ΔC(hi)|=|C(hi=0)-C(hi)| (1.3)
利用泰勒一阶展开:
计算将一个卷积核hi置0后,计算模型损失函数值的大小;再根据模型损失函数值进行卷积核的贡献度排序,从而进行贡献度低卷积核的裁剪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910447570.8/1.html,转载请声明来源钻瓜专利网。