[发明专利]目标跟踪的方法在审
申请号: | 202010834753.8 | 申请日: | 2020-08-19 |
公开(公告)号: | CN112116630A | 公开(公告)日: | 2020-12-22 |
发明(设计)人: | 许剑华 | 申请(专利权)人: | 上海闪马智能科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 北京中济纬天专利代理有限公司 11429 | 代理人: | 王会祥 |
地址: | 201203 上*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 跟踪 方法 | ||
本发明涉及视频监控技术,具体涉及一种目标跟踪的方法。本发明主要是基于强化学习算法实现一种单目标跟踪方案,将每个目标的每个跟踪作为策略问题对待。通过跟踪的状态(reward)来优化控制策略(policy),进而对深度学习网络进行训练。本发明结合Siamese网络结构和RL方案,相较于一般的RL方案直接基于扣取图像进行目标预测,使用目标模板与图像进行相关特征进行预测,能够使用目标的周边信息,提高目标的语义背景区分能力,提高跟踪的鲁棒性。本发明本发明同时使用DQN进行跟踪,对价值函数的估计及策略的优化没有解藕,容易训练不收敛或者过拟合。
技术领域
本发明涉及视频监控技术,具体涉及一种目标跟踪的方法。
背景技术
在智能交通系统中,视频监控技术得到了广泛应用。目前,人们研究的焦点集中于车辆的检测、识别、跟踪、流量统计、交通疏导和违章检测等方面。
现有使用的目标跟踪追踪方法主要包括以下几种:
一:申请号201810592957.8的专利《基于多智能体深度增强学习的多目标跟踪》:
该专利每帧使用YOLOV3进行检测,用检测框对目标进行扣取,每个扣取的目标会创建agent,然后将扣取的目标进行特征提取,经过LSTM及DQN对每个目标进行动作预测。
该方案的单目标跟踪基于CNN提取每个目标的特征,用LSTM提取所有目标的相关特征信息,通过DQN学习到的策略(policy)对每个目标框进行动作的预测(目标框位置的预测)。总共包含9个动作。
该专利存在以下缺点:
1)、使用DQN进行动作和价值函数的,容易过拟合,不容易训练。
2)、将目标预测问题当做分幕(离散)问题,导致跟踪精度不足,目标位置变化应该当做空间的连续问题。
二:申请号201810220513.1的专利《基于深度增强学习的多目标跟踪方法》:
该专利每个目标分配一个agent,然后通过DQN网络进行目标框的预测,输入DQN网络中的图像是已经扣取的检测框图像。
该专利存在以下缺点:DQN网络是一个动作价值优化算法,通过最大化动作价值来对策略进行优化,收敛到局部最大。但是其收敛对reward很敏感,不易收敛。
三:siameseRPN系列单目标跟踪:
将模版图片与全局图片在某个区域分别送入CNN网络,然后再由RPN网络进行相关,两个不同的相关分支分别对目标的框和类别进行预测。
该方法存在以下缺点:SiameseRPN系列方案假设目标当前的位置会处于上一帧位置的附近,所以不会对全图进行相关操作,而是扣取目标上帧位置一个小范围内图像进行相关,这样操作的主要问题是SiameseRPN相关操作对语义背景的区分能力较差,容易导致误跟踪,所以要限定特征提取的范围。同时SiameseRPN网络没有考虑到目标的历史位置信息,只是依赖当前的模版和当前帧进行预测。
因此,需要对现有技术进行改进。
发明内容
本发明要解决的技术问题是提供一种高效的目标跟踪的方法。
为解决上述技术问题,本发明提供一种目标跟踪的方法,包括以下步骤:
1)、在当前帧图像输入用于选择目标的目标框;执行步骤2;
2)、Siamese特征提取模块使用输入的目标框或者预测的目标框抠取目标,目标框抠取目标作为目标抠图,然后使用CNN网络提取目标抠图和当前帧图像的特征;使用同样的CNN网络进行处理得到特征图,然后对两张特征图进行相关计算得到相关特征图,作为RL跟踪模块的输入;执行步骤3;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海闪马智能科技有限公司,未经上海闪马智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010834753.8/2.html,转载请声明来源钻瓜专利网。