[发明专利]基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法有效
申请号: | 201610037060.X | 申请日: | 2016-01-20 |
公开(公告)号: | CN105741316B | 公开(公告)日: | 2018-10-16 |
发明(设计)人: | 李映;杭涛 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 王鲜凯 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 尺度 相关 滤波 目标 跟踪 方法 | ||
1.一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的位置信息[x,y,w,h],其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:以(x,y)为中心提取搜索区域R,利用卷积神经网络CNN提取搜索区域R的卷积特征图,通过双边插值的方法对特征图进行上采样到搜索区域R得到卷积特征图所述的R的宽和高分别为M,N,所述的大小为M×N×D,D为通道数,l为CNN中的层数;
步骤3:采用分层的方式构建目标模型对于每一层的目标模型,其构建方法如下:
其中,d∈{1,....,D};变量上面的一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;(m,n)∈{0,1,...,M-1}×{0,1,...,N-1},σtarget为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤4:以当前帧中目标位置为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征Zscale,利用这些不同尺度的HOG特征构建尺度模型Wscale,其构建方法如下:
其中,S为尺度个数;变量上面一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;s∈{1,2,...,S},σscale为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤5:读取下一帧图像,以前一帧目标位置为中心,提取大小为R*scale的尺度缩放后的搜索区域,其中,R为上述大小为M×N的区域,scale为尺度因素;利用CNN提取尺度缩放后的搜索区域的卷积特征图,并且通过双边插值的方法对卷积特征图进行上采样到尺度缩放后的搜索区域R的大小得到卷积特征图利用目标模型计算目标置信图对于每一层,其目标置信图计算方法如下:
其中,为傅里叶逆变换;
步骤6:利用步骤5得到的置信图集逐层递进地定位目标位置(x,y):
其中,γ为每层的权重参数;
步骤7:以步骤6得到的目标位置(x,y)为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征Zscale,利用尺度模型Wscale,计算尺度置信图通过如下公式选择最优尺度因素:
步骤8:利用步骤7得到的尺度因素scale,再次提取大小为R*scale的尺度缩放后的搜索区域,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R*scale的大小得到卷积特征图以搜索区域R*scale的大小为基准、(x,y)为中心提取不同尺度的目标块,并且计算每个目标块的HOG特征得到尺度特征Zscale,更新目标模型和尺度模型Wscale:
其中,Atarget,Btarget分别为公式1的分子分母;Ascale,Bscale分别为公式2的分子分母;η为学习速率;
步骤9:判断是否处理完所有图像的所有帧,若没有,则转到步骤5继续;若处理完,则结束。
2.根据权利要求1所述基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,其特征在于:M=2w,N=2h。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610037060.X/1.html,转载请声明来源钻瓜专利网。