[发明专利]基于深度学习的目标跟踪方法、装置及存储介质有效
申请号: | 201710474118.1 | 申请日: | 2017-06-21 |
公开(公告)号: | CN107274433B | 公开(公告)日: | 2020-04-03 |
发明(设计)人: | 王欣;石祥文 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 北京市天玺沐泽专利代理事务所(普通合伙) 11532 | 代理人: | 鲍晓 |
地址: | 130012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 目标 跟踪 方法 装置 存储 介质 | ||
1.一种基于深度学习的目标跟踪方法,包括如下步骤:
图片读取步骤S110:连续读取两帧图片,包括前一帧图片和当前帧图片,所述前一帧图片具有已计算得知的目标位置,所述当前帧图片需要计算目标位置;
区域设定步骤S120:分别设定并裁剪前一帧的目标区域和当前帧的搜索区域;
所述设定并裁剪前一帧的目标区域具体为:根据前一帧已知目标的中心点位置c=(cx,cy),作为中心点,以矩形框作为第一包围盒对目标物体进行标记,第一包围盒的高度为h,宽度为w,经过剪裁后得到的目标区域的高度和宽度分别为k1h和k1w,参数k1用于控制目标区域的大小;
所述设定并裁剪当前帧的搜索区域具体为:判断物体在图像中运动是否平稳,如果速度稳定,则当前帧的搜索区域的中心点位置c′=(c′x,c′y)等于前一帧的已知目标的中心点位置c=(cx,cy)加上前两帧图像目标的帧间位移S,如果速度剧烈变化,则当前帧的搜索区域的中心点位置c′=(c′x,c′y)为前一帧的已知目标的中心点位置c=(cx,cy),即以前一帧的目标中心点位置作为当前帧的剪裁中心,以矩形框作为第二包围盒进行标记,第二包围盒的高度为h,宽度为w,经过剪裁后得到的搜索区域的高度和宽度分别为k2h和k2w,参数k2用于控制搜索区域的大小;
特征提取及对比步骤S130:将目标区域与搜索区域输入卷积神经网络(CNN),进行特征提取和特征对比,计算得到当前帧的目标区域;
帧间位移计算步骤S140:利用当前帧的目标区域和前一帧的目标区域,计算得到当前帧相对于前一帧目标的帧间位移;
判断步骤S150:判断当前帧是否为最后一帧,如果是,则跟踪结束,否则进入图片读取步骤S110,继续读取连续两帧图片,继续进行迭代的目标跟踪;
在区域设定步骤S120中,判断目标物体在图像中是否运动平稳为:比较在当前帧之前的连续三帧中相邻两帧的目标的帧间位移,如果连续三帧中相邻两帧的帧间位移相差较小,则认为运动稳定;如果连续三帧中相邻两帧的帧间位移相差较大,则认为运动速度剧烈变化;
在区域设定步骤S120中,判断连续三帧中相邻两帧的帧间位移相差较小是,是否小于前两帧帧间位移的1/3;
控制区域大小的k2和k1均取值为2。
2.根据权利要求1所述的目标跟踪方法,其特征在于:
在区域设定步骤S120中,为了避免由于运动速度变化过快,而导致当前帧目标的实际位置超出第二包围盒的情况,当速度发生剧烈变化时,增大第二包围盒的大小,即增大k2的数值。
3.根据权利要求1所述的目标跟踪方法,其特征在于:
特征提取及对比步骤S130具体为,首先在卷积层对目标区域和搜索区域进行特征提取,然后将提取到的特征输入到全连接层,在全连接层对目标区域和搜索区域进行特征比较,最后计算后得到当前帧的目标区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710474118.1/1.html,转载请声明来源钻瓜专利网。