[发明专利]基于深度学习的目标跟踪方法、装置及存储介质有效
申请号: | 201710474118.1 | 申请日: | 2017-06-21 |
公开(公告)号: | CN107274433B | 公开(公告)日: | 2020-04-03 |
发明(设计)人: | 王欣;石祥文 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 北京市天玺沐泽专利代理事务所(普通合伙) 11532 | 代理人: | 鲍晓 |
地址: | 130012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 目标 跟踪 方法 装置 存储 介质 | ||
一种基于深度学习的目标跟踪方法、装置及其存储介质,所述方法为连续读取两帧图片;分别设定并裁剪前一帧的目标区域和当前帧的搜索区域,在设定并裁剪当前帧的搜索区域时,通过判断物体在快速运动时是否平稳设定中心点位置,并得到搜索区域;将目标区域与搜索区域输入卷积神经网络计算得到当前帧目标区域;计算得到当前帧相对于前一帧目标的帧间位移;判断当前帧是否为最后一帧,以判断是否继续进行迭代的目标跟踪。本发明通过判断目标物体在图像中运动快速的快慢,来实现对当前帧裁剪区域的中心点位置的预测,相对于已有算法,在基本保持了原有的高的跟踪速度的前提下,提高了目标跟踪准确率和目标重合度,并且具有较好的跟踪鲁棒性。
技术领域
本发明涉及图像处理领域,具体的,涉及一种在图像处理中基于深度学习的目标跟踪方法、装置及存储介质。
背景技术
目标跟踪在计算机视觉领域是一项富有挑战性的研究课题,因其在安防、交通、军事、虚拟现实、医学影像等众多领域都有其广泛地应用,而成为一个研究热点。目标跟踪目的是在有序图像序列中确定目标物体的连续位置,以便于进行进一步分析和处理,从而实现对目标物体运动行为的分析和理解。进入二十一世纪以来,信息技术得以高速发展,计算机的计算性能以及摄像机等图像采集设备的采集质量都在逐步提高,加上人们对于自身以及财产安全的日趋重视,越来越多的专家学者投身于研究目标跟踪相关技术。
目标跟踪技术是计算机视觉领域的核心研究课题之一,它包含了计算机图形学、目标识别、人工智能以及自动控制等多方面技术。目标跟踪技术起源于上世纪50年代,经过60多年的不断发展,目前已经提出了多种跟踪算法,比如均值漂移算法(Mean Shift)、背景差分法(Background difference method)、背景建模法(Background modeling)、光流法(optical flow method)、卡尔曼滤波器(Kalman Filter)、粒子滤波器(Particle Filter)以及以上述算法为基础的各种改进算法等,但是这些算法基本上都存在一定的问题和缺陷,比如跟踪精度较低或者实时性较差,难以满足现实场景应用的各种需求。
自从2006年深度学习(Deep Learning)的概念提出以后,深度学习的研究开始变得流行起来,越来越多的专家学者投身到深度学习的研究中来,深度学习在许多领域都取得了突破性进展,也得到了广泛应用,比如计算机视觉、图像处理、自然语言处理、信息分类、搜索以及大数据等领域。自然而然地,人们开始尝试采用深度学习的方法来解决目标跟踪问题。但是,采用深度学习的方式研究目标跟踪的算法,由于庞大的计算量,往往都比较慢,实时性较差,难以满足实际应用的要求。
因此,如何在目标跟踪中既提高跟踪精度又提高跟踪效率,成为现有技术亟需解决的技术问题。
发明内容
本发明的目的在于提出一种基于深度学习的目标跟踪方法、装置及存储介质,对输入视频逐帧处理,实现对目标物体的精确跟踪,通过大量带标签数据的离线训练,使得神经网络具有较强的特征泛化能力,提高了跟踪精度,通过剪裁和GPU加速等手段,加快了运算速度,提高了跟踪效率。
为达此目的,本发明采用以下技术方案:
一种基于深度学习的目标跟踪方法,包括如下步骤:
图片读取步骤S110:连续读取两帧图片,包括前一帧图片和当前帧图片,所述前一帧图片具有已计算得知的目标位置,所述当前帧图片需要计算目标位置;
区域设定步骤S120:分别设定并裁剪前一帧的目标区域和当前帧的搜索区域;
所述设定并裁剪前一帧的目标区域具体为:根据前一帧已知目标的中心点位置c=(cx,cy)作为中心点,以矩形框作为第一包围盒对目标物体进行标记,第一包围盒的高度为h,宽度为w,经过剪裁后得到的目标区域的高度和宽度分别为k1h和k1w。参数k1用于控制目标区域的大小;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710474118.1/2.html,转载请声明来源钻瓜专利网。