[发明专利]一种基于深度学习的行人目标跟踪方法有效
申请号: | 201810708758.9 | 申请日: | 2018-07-02 |
公开(公告)号: | CN109146921B | 公开(公告)日: | 2021-07-27 |
发明(设计)人: | 凌贺飞;余成跃;李平 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/62 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 曹葆青;李智 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开一种基于深度学习的行人目标跟踪方法,将深度学习与相关滤波相结合进行目标跟踪,在保证实时跟踪的前提下,有效提高跟踪的准确性。针对跟踪过程中目标姿态变化大的问题,将基于行人属性的深层卷积特征应用到跟踪中;针对遮挡问题,使用余弦相似度的方法进行遮挡的判断,以有效避免因遮挡带来的脏数据引入;为了提高效率、解决深层卷积特征在相关滤波器中的使用问题,提出双线性插值的方法,在去除量化误差的同时又能避免特征的重复提取,大幅度提高效率;针对目标高速运动的问题,提出将预选框策略融入到跟踪算法中,不仅能对全局图像进行搜索,同时预选框能够作为强负样本加入训练,提高相关滤波器的区分能力。 | ||
搜索关键词: | 一种 基于 深度 学习 行人 目标 跟踪 方法 | ||
【主权项】:
1.一种基于深度学习的行人目标跟踪方法,其特征在于,包括以下步骤:(1)对包含行人目标的视频解码获得每一帧视频图像;(2)提取每一帧视频图像的特征信息;(3)根据每一帧视频图像的特征信息,使用区域候选网络RPN生成每一帧视频图像的预选框区域,以粗粒度搜索每一帧视频图像,获取每一帧视频图像中有可能是行人目标的候选区域;(4)在上一帧视频图像行人目标周围产生目标框,将所述目标框与前后关联帧视频图像中有可能是行人目标的候选区域合并,成为细粒度搜索候选集;(5)用双线性插值算法,将每一帧视频图像特征信息对应的特征图进行扩展,使得扩展后的特征图与原始视频图像分辨率相同,去除因量化带来的目标位置预测不准确的问题,在扩展后的特征图上,确定所述细粒度搜索候选集中各个目标框对应位置的特征;(6)使用相关滤波器,对细粒度搜索候选集中的区域计算响应值,响应值最大者即为预测的行人目标位置,同时对相关滤波器进行在线更新。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810708758.9/,转载请声明来源钻瓜专利网。