[发明专利]行人多目标跟踪识别方法及跟踪识别装置在审
申请号: | 202210581127.1 | 申请日: | 2022-05-25 |
公开(公告)号: | CN114937239A | 公开(公告)日: | 2022-08-23 |
发明(设计)人: | 梁宏涛;董文轩;吴沭运;刘国柱;杜军威;朱习军;胡强 | 申请(专利权)人: | 青岛科技大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/762;G06V10/774;G06V10/80 |
代理公司: | 青岛联智专利商标事务所有限公司 37101 | 代理人: | 李升娟 |
地址: | 266061 山东省青*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 行人 多目标 跟踪 识别 方法 装置 | ||
本发明公开了一种行人多目标跟踪识别方法和跟踪识别装置,解决现有技术存在的精确度低和稳定性差的问题。所述方法包括采用训练数据集训练网络并获取行人多目标跟踪识别模型的过程:获取包含行人多目标的训练数据集;将所述训练数据集输入基于FairMOT架构、由GAConv和CLFPN构建的Encoder‑Decoder网络,获得多尺度融合特征图;将所述多尺度融合特征图输入目标检测网络和重识别网络,获得目标和检测结果;将所述目标和检测结果输入跟踪网络进行跟踪,获得训练后的行人多目标跟踪识别模型;在采用所述训练数据集训练网络时,采用自适应loss衰减的学习率更改策略和AdamW相结合的方法执行网络参数优化。
技术领域
本发明属于计算机视觉技术领域,具体地说,涉及行人跟踪识别技术,更具体地说,是涉及行人多目标跟踪识别方法及跟踪识别装置。
背景技术
依托于不断深入的深度神经网络研究,计算机视觉领域内的各项任务也取得了长足的发展,其中,对于视频内运动的多目标的跟踪是研究的重要方向之一。其中,行人多目标跟踪识别在视频监控、计算机动画、虚拟现实、人机交互、智能交通等方面均获得了广泛的应用。因此,对行人跟踪技术进行相关研究与分析是十分有意义的。
现有技术中,通过深度神经网络实现视频内运动多目标跟踪为常用的方法,其过程一般被分为两个子任务来解决:首先,对视频帧中感兴趣的一类或多类目标的检测结果进行定量分析,判断目标在连续时序中的位置;然后对目标本身进行重识别特征信息提取,获取目标的完整运动轨迹。
自FairMOT(Fair Multi-Object Tracking,合理的多目标跟踪架构)出现之后,在多目标跟踪领域被广泛应用。公开号为CN113034545A的中国专利申请公开了一种基于CenterNet多目标跟踪算法的车辆跟踪方法,基于FairMOT框架,采用HRnet网络作为目标检测的主干网络,引入注意力机制构建FairMOT的目标检测和重识别网络,实现对目标车辆的跟踪。
而在行人多目标跟踪识别领域,行人作为视频中的活动主体时,在移动时相较于车辆更具灵活性,并且行人是非刚体,轮廓特征在不断变化,不易提取,因此,上述应用于车辆跟踪的方法在行人跟踪识别时,存在着模型跟踪识别精度低、模型收敛性差、跟踪识别稳定性弱等问题。
鉴于此,亟需一种跟踪识别精度高、模型收敛性强的行人多目标跟踪识别技术。
发明内容
本发明的目的在于提供一种行人多目标跟踪识别方法及跟踪识别装置,解决现有行人多目标跟踪识别技术存在的精确度低和稳定性差的技术问题。
为解决上述技术问题,本发明提供的行人多目标跟踪识别方法采用下述技术方案予以实现:
一种行人多目标跟踪识别方法,其特征在于,所述方法包括采用训练数据集训练网络并获取行人多目标跟踪识别模型的过程;
所述训练网络的过程包括:
获取包含行人多目标的训练数据集;
将所述训练数据集输入基于FairMOT架构的Encoder-Decoder网络进行特征提取,获得多尺度融合特征图;所述Encoder-Decoder网络中,采用全局注意卷积模块GAConv作为主干网络,引入跨层特征金字塔结构CLFPN对所述主干网络进行改进;
将所述多尺度融合特征图输入所述FairMOT架构的目标检测网络和重识别网络,获得目标和检测结果;
将所述目标和检测结果输入所述FairMOT架构的跟踪网络进行跟踪,获得训练后的行人多目标跟踪识别模型;
在采用所述训练数据集训练网络时,采用自适应loss衰减的学习率更改策略和AdamW相结合的方法执行网络参数优化,网络参数收敛后的模型确定为所述训练后的行人多目标跟踪识别模型。
本申请的一些实施例中,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛科技大学,未经青岛科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210581127.1/2.html,转载请声明来源钻瓜专利网。