[发明专利]一种复杂场景下尺度自适应的目标跟踪方法和系统有效
申请号: | 201811600533.8 | 申请日: | 2018-12-26 |
公开(公告)号: | CN109993052B | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 王爽;焦彤;凌翔滨;樊彬;雷晓奇;刘国磊;任桃桃 | 申请(专利权)人: | 上海航天控制技术研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/46;G06K9/62 |
代理公司: | 中国航天科技专利中心 11009 | 代理人: | 范晓毅 |
地址: | 201109 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 复杂 场景 尺度 自适应 目标 跟踪 方法 系统 | ||
1.一种复杂场景下尺度自适应的目标跟踪方法,其特征在于,包括:
对首帧图像进行目标特征检测,获取待跟踪目标特征;并对两种跟踪方法所对应的目标模板和分类器参数矩阵分别进行初始化;其中,两种跟踪方法,包括:基于核相关滤波跟踪法和基于特征检测跟踪法;
在基于核相关滤波跟踪法的跟踪过程中,比较多尺度候选区域的核相关响应值,确定最大响应值的跟踪区域位置和大小;使用最大响应值的跟踪区域位置和大小,对初始化后的目标模板和分类器参数矩阵进行更新,确定核相关滤波跟踪结果;
在基于特征检测跟踪法的过程中,通过最稳定极值区域法检测得到候选目标,将每个候选目标分别与目标模板在频域内进行相关;从相关结果中筛选得到响应值最高的候选目标区域位置和大小,确定特征检测跟踪结果;
对核相关滤波跟踪结果和特征检测跟踪结果进行数据融合,得到融合结果,根据融合结果,对目标形心进行跟踪。
2.根据权利要求1所述的复杂场景下尺度自适应的目标跟踪方法,其特征在于,对首帧图像进行目标特征检测,获取待跟踪目标特征,包括:
确定输入的视频的首帧图像;
对首帧图像进行框选,得到包含待跟踪目标的矩形区域;
采用最稳定极值区域法对矩形区域进行目标检测,得到若干候选目标;
通过最近邻法标记距离矩形区域的中心最近的候选目标,并获取标记的候选目标的形心和半径,将标记的候选目标的形心和半径对应的区域确定为待跟踪目标区域;
对待跟踪目标区域进行灰度特征或梯度方向直方图特征提取,得到待跟踪目标特征。
3.根据权利要求1所述的复杂场景下尺度自适应的目标跟踪方法,其特征在于,对两种跟踪方法所对应的目标模板和分类器参数矩阵分别进行初始化,包括:
根据首帧检测的目标图像块,采用密集采样的方式,建立循环样本矩阵;
通过循环样本矩阵进行分类器训练,得到分类器模型;
根据分类器模型,对两种跟踪方法所对应的目标模板和分类器参数矩阵分别进行初始化。
4.根据权利要求3所述的复杂场景下尺度自适应的目标跟踪方法,其特征在于,在基于核相关滤波跟踪法的跟踪过程中,比较多尺度候选区域的核相关响应值,确定最大响应值的跟踪区域位置和大小;使用最大响应值的跟踪区域位置和大小,对初始化后的目标模板和分类器参数矩阵进行更新,确定核相关滤波跟踪结果,包括:
以上一帧输出的坐标位置为中心,确定当前帧的兴趣区域中心,提取与上一帧相同半径大小的跟踪框区域的特征信息;
利用分类器模型进行目标位置检测,通过核函数进行映射,得到窗口样本的分类器响应;
对图像块进行循环移位,构造候选图像块;
利用候选图像块的循环结构,计算出分类器模型对待跟踪目标区域中的所有位置的响应,即得到所有候选图像块的分类器响应;
根据各候选图像块的分类器响应,确定最大响应值的跟踪区域位置和大小,作为当前帧的核相关滤波跟踪结果。
5.根据权利要求4所述的复杂场景下尺度自适应的目标跟踪方法,其特征在于,窗口样本的分类器响应f(z)如下:
即f(z)=(Kz)Tα
其中,w表示函数的参数,z表示待检测的样本,f(z)表示待检测的样本的分类器响应值,α表示分类器参数,α=[α0,α2,…,αn-1]T,xi表示目标样本矩阵循环矩阵的第i行,即目标样本图像进行i次循环移位得到的位移图,Kz=C(kxz),Kz表示训练样本x和所有候选图像块之间的核矩阵,kxz表示x和z之间的核相关。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海航天控制技术研究所,未经上海航天控制技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811600533.8/1.html,转载请声明来源钻瓜专利网。