[发明专利]一种可调节算法计算参数量的监控视频人物跟踪方法在审
申请号: | 202210509561.9 | 申请日: | 2022-05-10 |
公开(公告)号: | CN114821480A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 黄英来;李大明;姜忠良 | 申请(专利权)人: | 东北林业大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/40;G06V10/20;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150040 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 调节 算法 计算 参数 监控 视频 人物 跟踪 方法 | ||
1.一种可调节算法计算参数量的监控视频人物跟踪方法,结合GhostNet-YOLOX的目标检测算法和DeepSort算法,包括如下步骤:
步骤1:对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧,并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,用作实验的训练集;
步骤2:搭建GhostNet-YOLOX模型;
步骤3:输入训练集数据,训练GhostNet-YOLOX模型,直至损失函数曲线趋于平稳时,停止训练,保存此时的训练权值,以.pth格式保存;
步骤4:输入监控行人视频,对视频的分帧图像进行自适应伽马增强,来调节整个图片的亮度;
步骤5:对当前视频帧图片,调用改进后的训练模型,载入训练权值,输出预测人物位置参数;
步骤6:使用DeepSort算法根据轨迹对当前预测参数进行管理,分配ID实现人物跟踪。
2.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤2包括:
首先,搭建GhostNet-YOLOX网络,主要包括:BackBone部分,Neck部分和Decouple_Head三部分。网络的基本组成单元为:Focus特征图重组结构,由GhostNet、批量归一化层和SiLU函数激活层组成的GBS块,CSPLayer多级残差块,SPP并行池化结构。其中:
SiLU的函数表达式为:
然后,使用GhostNet方法替换其中的卷积结构,设输入特征图为F1∈RC×H×W,特征图通道数为C,宽和高分别为W和H。输出特征图为模块压缩比系数为k,通过设定不同k值,调整计算参数量。GhostNet的过程为:
首先,通过常规卷积操作降低输入特征图通道数,得到浓缩信息的特征图C2值为C4/k;
然后,对浓缩的特征图进行depthwise卷积操作,得到映射特征图C3值为C4·(k-1)/k,同时为缩减参数量,使depthwise卷积组数为C2,则形成F2和F3维度之间的一对多映射;
最后,将浓缩特征图通过残差边和映射特征图进行拼接,得到F4。
3.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤3包括:
GhostNet-YOLOX的损失函数表达式为:Loss=loss_loc+k1×loss_con+k2×loss_cls。
其中,loss_loc为位置预测框回归损失,loss_con为置信度损失,loss_cls为分类损失。K1和K2为平衡三者的参数。
4.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤4包括:
首先,将待分帧的图片转化为RGB格式,分为R、G、B三张特征图,分别计算R、G、B三张特征图的像素均值M1、M2、M3。
然后,分别求取R、G、B三张特征图各自的变换系数αi,(i取值为1、2、3),则最终的变换系数α=(α1+α2+α3)/3。αi计算公式如下:
然后,分别对R、G、B三张特征图的每个像素值Xi,映射到Yi∈[0,1]区间内。映射公式如下:
Yi=Xi/255。
最后,将Yi进行伽马变换后,映射回原空间。计算公式为:Zi=Yiα×255。
5.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤6包括:
步骤6-1:首先,根据GhostNet-YOLOX的检测结果detections初始化预测轨迹信息tracks。
其中,轨迹信息tracks利用8维特征向量表示,u,v表示检测框的坐标,y,h表示宽高比和高,后四个参数分别表示前四个参数的变化率。
步骤6-2:对于预测的轨迹信息通过卡尔曼滤波算法进行导出,产生未确认状态的新轨迹unconfirmed tracks和可确认状态的轨迹confirmed tracks。
步骤6-3:对于确认状态的轨迹confirmed tracks,与detections产生的目标框信息结果进行级联匹配cascade,形成如下两种情况:
(1)tracks和detections失配;(2)tracks和detections匹配成功;
当tracks和detections匹配成功的情况,则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹Tracks信息,返回6-2步骤,进入下一循环。
步骤6-4:对于未确认状态的新轨迹unconfirmed tracks或者原为确认状态的轨迹级联匹配后失配的tracks和detections,进行tracks和detections之间的IoU值计算,形成tracks和detections代价矩阵。
步骤6-5:代价矩阵通过匈牙利算法,得到tracks的三种匹配结果:
(1)tracks失配;(2)dections失配;(3)tracks和detections匹配成功。
对于6-5的第(1)种情况:如果失配的tracks是未确认态或者是确认态的tracks但失配次数超过30,则删除,反之失配次数未超过30,进入步骤6-2,进入下一循环。
对于6-5的第(2)种情况:对于失配的detections,则为其分配一个新track,并分配新的ID后进入步骤6-2,进入下一循环。
对于6-5的第(3)种情况:则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹tracks信息,返回6-2步骤,进入下一循环。
步骤6-6:重复步骤6-2至步骤6-5,直到视频帧结束。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北林业大学,未经东北林业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210509561.9/1.html,转载请声明来源钻瓜专利网。