[发明专利]一种基于深度梯度的目标跟踪方法与系统有效
申请号: | 201510822670.6 | 申请日: | 2015-11-23 |
公开(公告)号: | CN105488811B | 公开(公告)日: | 2018-06-12 |
发明(设计)人: | 高常鑫;时辉章;桑农;刘心田;邹雷;赵俊;李逢;吴建雄 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/269 | 分类号: | G06T7/269 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标跟踪 深度梯度 方向梯度直方图 漂移 分类器模型 选择性调整 跟踪结果 光照变化 检测结果 目标检测 目标颜色 深度图像 视频序列 训练模型 有效解决 鲁棒性 目标框 帧处理 帧重复 跟踪 标定 遮挡 | ||
本发明公开了一种基于深度梯度的目标跟踪方法,通过对获取的待跟踪RGB‑D视频序列的第一帧进行标定,提取RGB图像的方向梯度直方图特征和深度图像的深度梯度信息;基于上述信息,对当前帧进行目标检测和目标跟踪,并根据检测结果和跟踪结果,进一步得到最终目标框;最后,对下一帧重复前述步骤且在每一帧处理后,对分类器模型进行选择性调整。相应地本发明还公开了一种对应的系统。通过执行本发明中的方法,有效解决了当前目标跟踪方法中存在的在背景与目标颜色接近、光照变化明显、遮挡等导致的跟踪错误或丢失的问题,大大提高了目标跟踪的鲁棒性,同时减少了训练模型的漂移问题,尤其适用于小速率目标跟踪的应用场合。
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种基于深度梯度的目标跟踪方法与系统。
背景技术
目标跟踪是计算机视觉领域里的一个重要分支,随着人工智能的发展,目标跟踪技术越来越受到重视。传统的目标跟踪主要集中在对视频序列RGB信息的研究,由于RGB信息只能从物体的色彩方面对其进行描述,忽略了目标的形状以及位置等重要的信息。使用单一的有效信息导致基于RGB信息的目标跟踪容易受到光照变化、背景复杂、目标形变、遮挡等因素的影响,跟踪效果不理想,容易出现跟踪丢失和错误跟踪等问题。
近年来,随着距离传感器的发展,其精度得到了大幅度的提升,同时价格也下降到了一个可接受的范围,这使得采集视频RGB图像序列的同时也能够方便地获取对应的深度图像序列。深度信息代表了物体的位置信息,当前很多目标跟踪的研究将深度信息与RGB信息结合,即利用了图像序列中物体的色彩信息以及位置信息,这使得目标跟踪的性能得到了一定程度的提升。虽然相比于传统的仅使用RGB信息的目标跟踪方法,上述加入深度信息的目标跟踪方法拥有更好的性能,但是仅靠使用深度信息提供的位置信息并没有有效利用深度图像序列的深度信息,因此上述方法存在很大的改进空间。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于深度梯度的目标跟踪方法及系统,其中通过使用深度梯度信息和RGB信息对目标进行描述,实现了目标跟踪的准确性,本发明分别使用检测和跟踪两种方法,且在每一帧处理过后,对分类器模型进行选择性调整,大大提高了跟踪效果的鲁棒性,同时减少了模型漂移问题,相应可有效解决当前目标跟踪方法中存在的在背景与目标颜色接近、光照变化明显、遮挡等导致的跟踪错误或丢失的问题,因而尤其适用于小速率目标跟踪的应用场合。
为实现上述目的,按照本发明的一个方面,提出了一种基于深度梯度的目标跟踪方法,其特征在于,所述方法包括:
(1)获取待跟踪视频序列,包括RGB图像序列以及对应的深度图像序列;
(2)对视频序列的第一帧进行标定,选取待跟踪的目标,给出目标位置所处的最小矩形框;
(3)将步骤(2)中最小矩形框所选矩形区域设定为正样本,其余非所选矩形区域为负样本,针对所述正样本提取RGB图像的方向梯度直方图HOG特征,训练支持向量机SVDD分类器;
(4)根据步骤(1)中获取的所述深度图像序列,得到第k幅深度图像第i行第j列的深度梯度信息gk(i,j)为:
gk(i,j)=dk(i-1,j-1)-dk(i,j)
其中,dk(i,j)为深度图像序列中第k幅深度图像第i行第j列的深度值;
(5)针对当前帧进行目标检测:对当前帧在上一帧中最小矩形框1倍尺度范围内进行基于RGB图像的HOG特征多尺度目标检测,得到对应的检测结果;
(6)针对当前帧进行目标跟踪:根据步骤(4)得到的深度梯度信息gk(i,j),通过深度梯度流方法进行目标跟踪,得到对应的跟踪结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510822670.6/2.html,转载请声明来源钻瓜专利网。