[发明专利]基于最近邻分类器和均值漂移的目标跟踪方法有效
申请号: | 201210414788.1 | 申请日: | 2012-10-25 |
公开(公告)号: | CN102999920A | 公开(公告)日: | 2013-03-27 |
发明(设计)人: | 田小林;焦李成;刘朵;张小华;缑水平;朱虎明;钟桦;马文萍 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;朱红星 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 近邻 分类 均值 漂移 目标 跟踪 方法 | ||
1.一种基于最近邻分类器和均值漂移的目标跟踪方法,包括以下步骤:
(1)输入一段视频中的第一帧,并用矩形框标记出待跟踪目标,分别用g和h表示该矩形框的长和宽;
(2)模型初始化:
2a)提取步骤(1)中视频第一帧的尺度不变sift特征,并用待跟踪目标的尺度不变sift特征初始化为目标模型,并计算该目标模型的颜色直方图,用第一帧中其余的尺度不变sift特征初始化为背景模型;
2b)用步骤(1)中待跟踪目标的中心位置初始化均值漂移meanshift模型;
(3)确定新一帧视频图像中目标搜索区域;
(4)提取步骤(3)中得到的目标搜索区域内的尺度不变sift特征,根据目标搜索区域和上一帧的目标跟踪结果,通过均值漂移meanshift模型获得当前帧的目标中心位置,得到一个面积为A的目标框;
(5)利用最近邻分类器对步骤(4)中提取的尺度不变sift特征和步骤2a)得到的初始化目标模型及背景模型进行特征点匹配,得到一个面积为B的目标框,其中成功匹配点的数目记为n;
(6)输出当前帧的目标跟踪结果:
6a)根据步骤(4)中得到的面积为A的目标框和步骤(5)中得到的面积为B的目标框,计算两个目标框的重叠面积C,得到面积重叠率P=C/(A+B-C);
6b)将面积重叠率P和成功匹配点的数目n分别与设定的阈值T和阈值N进行比较,如果成功匹配点的数目n大于阈值N=35,则将面积为B的目标框作为当前帧的目标跟踪结果输出;如果n<N,且面积重叠率P大于阈值T=0.7,则将两个目标框对应坐标取均值作为当前帧的目标跟踪结果输出,否则将面积为A的目标框作为当前帧的目标跟踪结果输出,并计算目标跟踪结果的颜色直方图。
(7)判断目标是否被遮挡:
7a)根据步骤2a)得到的目标模型的颜色直方图和步骤(6)得到的目标跟踪结果的颜色直方图得出遮挡因子Occ;
7b)将遮挡因子Occ与阈值T1进行比较,如果遮挡因子Occ小于阈值T1=0.6表示目标没有发生遮挡,则提取当前帧的目标跟踪结果的尺度不变sift特征,将其作为更新的目标模型,并计算此时目标模型的颜色直方图;如果遮挡因子Occ大于阈值T1表示目标发生了遮挡,则目标模型不予更新;
(8)循环执行步骤(3)~步骤(7),直到视频的最后一帧。
2.根据权利要求1所述的基于最近邻分类器和均值漂移的目标跟踪方法,所述步骤2a)、步骤(4)和步骤7b)中的颜色直方图,是通过计算图像中颜色的像素点数量得到,即对红-绿-蓝RGB颜色的图像模型,将红色R通道均匀量化为16个小区间,将绿色G通道均匀量化为16个小区间,将蓝色B通道均匀量化为16个小区间,统计图像模型中的颜色落在每个小区间内的像素数量得到颜色直方图。
3.根据权利要求1所述的基于最近邻分类器和均值漂移的目标跟踪方法,所述步骤2b)和步骤6b)中的均值漂移meanshift模型,是运用迭代运算寻找概率密度的极大值,即根据待跟踪目标中心位置的偏移量,移动该点到其偏移量均值的位置处,然后以此位置为新的起始点,循环迭代,直至收敛到极大值点处。
4.根据权利要求1所述的基于最近邻分类器和均值漂移的目标跟踪方法,所述步骤(3)的目标搜索区域,是在新一帧视频图像上,根据上一帧视频图像的目标跟踪结果,将标记目标的矩形框的长和宽分别加上2×min(g,h)得到新的矩形框,并将该扩大后的矩形框区域作为目标搜索区域,其中,min(g,h)表示取g和h中值较小的一项。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210414788.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用铝土矿尾矿制备4A分子筛的方法
- 下一篇:转向架构架的翻转方法