[发明专利]复杂干扰场景下的目标跟踪方法在审

专利信息
申请号: 200910193009.8 申请日: 2009-10-10
公开(公告)号: CN101673403A 公开(公告)日: 2010-03-17
发明(设计)人: 黄敬;吴金勇 申请(专利权)人: 安防制造(中国)有限公司
主分类号: G06T7/20 分类号: G06T7/20
代理公司: 广州粤高专利商标代理有限公司 代理人: 禹小明
地址: 518106广东省深圳市*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 复杂 干扰 场景 目标 跟踪 方法
【权利要求书】:

1.一种复杂干扰场景下的目标跟踪方法,其特征在于包括以下步骤:

(1)运动目标检测:对每个进入视频中的运动目标,确定其出现的初始位置,采用自 适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;

(2)目标特征建模:对检测到的每一个运动目标区域,提取多个用于匹配的特征信息, 并进行多特征信息融合,建立目标特征模板,其通过对目标颜色、梯度、纹理特征信息的特 征向量,采用非负矩阵分解的方法进行特征的提取及一致性约束,将各个特征向量看做视频 图像的概率密度分布函数,各特征的信息熵作为包含信息量大小的度量,以此为基准决定多 特征融合的权重分布,建立目标特征模板;

(3)匹配区域搜索:在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最 优的区域,作为当前帧目标跟踪定位,其通过多特征融合Mean-Shift搜索方法,以迭代的方 法来减小搜索最优匹配的时间,同时,结合模拟退火算法来排除迭代搜索过程陷入局部最优 解;

(4)目标特征模板更新:目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧 的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适 应更新;

步骤(2)中,非负矩阵的具体分解方法为:将各特征信息看做非负m*n矩阵c,其中m,n 为视频图像的高度和宽度,通过迭代方法求解特征向量q以及约束矩阵h,并采用欧式距离: ||c-qh||=∑i,j[ci,j-(qh)i,j]2,其中,非负矩阵分解的求解过程如下:

a.初始化q,h矩阵为非负随机矩阵;

b.对q,h进行迭代运算,其中q,h是同步迭代,迭代公式如下:

qi,a=qi,aΣci(qh)iha]]>

qi,a=qi,a/∑jqj,a

ha=haΣqi,aci(qh)i]]>

其中,i,j,a分别代表各个矩阵坐标,c为图像的信息矩阵;

c.计算c和qh之间的欧氏距离,如果大于预定订值,返回b继续运算;否则停止,运 算结束,最终得到的q为某一特征信息的特征向量,其中图像颜色信息特征向量记为qc,梯 度图像记为qg,纹理图像记为qc

通过对梯度图像求一阶导数得到检测图像中的边缘点,图像f(x,y)在位置(x,y)的梯 度定义为下列向量:

f=GxGy=f/xf/y]]>

通过灰度共生矩阵所产生的一些统计量作为纹理特征信息来表示图像像素的空间关系, 令图像f(x,y)灰度共生矩阵pi,j为:

pi,j=#{(x1,y1),(x2,y2)|f(x1,y1)=i,f(x2,y2)=j}

其中#{x|condition}表示x中满足条件condition的元素个数,i,j为图像坐标;根据 (x1,y1),(x2,y2)之间的距离d,与坐标横轴的夹角θ,得到各种间距及夹角的灰度共生矩 阵p(i,j,d,θ);

多特征信息融合:设q1,q2,q3分别为某一目标区域的提取的颜色信息特征向量、梯度信 息特征向量及纹理信息特征向量,则目标区域按如下方式来描述:

Q={ωiqi|i=1,2,3}

其中,ωi为各个特征信息的权重因子,∑iωi=1,权值的计算依据不同特征所包含的 信息量来确定,用信息熵来进行度量,将各个特征向量看做视频图像的概率密度分布函数, 记为hi,其信息熵表示为:各个特征信息的权值与其信息熵成正比 关系ωiEi(H);

得到各个特征向量及其权值后,将目标特征模板记为Q,以y为中心的区域模板记为 P(y),则匹配相关系数:

ρ[Q,P(y)]=Σi=13ωiρ[Qi,Pi(y)]]]>

最优匹配为寻求此相关系数的最大值;

步骤(3)中,匹配区域搜索为空间位置的局部最优搜索:后续帧的目标定位中,以前一 帧的目标区域质心点为中心,采用多特征融合Mean-Shift搜索方法,搜索出与目标特征模板 的最佳匹配区域;

给定d维空间Rd中的n个样本点xi,i=1,2…n,在x点的Mean Shift向量的基本形式定 义为:

Mh(x)=1kΣxiSh(xi-x)]]>

其中,Sh是一个半径为h的高维球区域,满足以下关系的y点的集合,

Sh={y:(y-x)T(y-x)≤h2}

k表示在这n个样本点xi中,有k个点落入Sh区域中;

Mean-Shift形式扩展为:

Mh(x)=Σi=1nH(xi-xh)ω(xi)(xi-x)Σi=1nH(xi-xh)ω(xi)]]>

其中,H为与距离相关的核函数,且对所有采样点满足权值ω(xi)=1;

根据多特征信息融合的特征提取方法,对于指定的目标区域,提取其特征向量Q,以y为 中心的区域模板记为P(y),则MFMS匹配相关系数为:

ρ[Q,p(y)]=Σi=13ωiρ[Qi,Pi(y)]=Σi=13ωiΣu=1mQi,uPi,u(y)]]>

其中,m表示每一个特征向量的维数,u为具体每一维,i表示不同的图像特征,上式在 P(y0)处泰勒展开可得:

ρ[Q,P(y)]12Σi=13ωiΣu=1mQi,uPi,u(y)+12Σi=13ωiΣu=1mPi,u(y)Qi,uPi,u(y0)]]>

对上式右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下:

i.计算当前搜索点y0的特征向量P(y0),计算与目标模板相关系数ρ[Q,P(y0)];

ii.基于MFMS,得到新的坐标点:

y1=Σi=13ωiΣu=1mxuPi,u(y)Qi,uPi,u(y0)Σi=13ωiΣu=1mPi,u(y)Qi,uPi,u(y0)]]>

更新P(y1),计算ρ[Q,P(y1)];

iii.比较ρ[Q,P(y0)]与ρ[Q,P(y1)],如果ρ[Q,P(y1)]>ρ[Q,P(y0)],则y0=y1,反之 y1=(y0+y1)/2;

iv.在一定目标特征模板范围内随机扰动产生新的匹配点坐标y′1,计算ρ[Q,P(y′1)],比 较ρ[Q,P(y1)],ρ[Q,P(y1)],如果ρ[Q,P(y1)]<ρ[Q,P(y′1)],以y′1作为最优匹配位置, 反之,以某一固定概率接受y′1,y0=y′1

v.当||y1-y0||<ε或达到最高迭代次数时,算法终止,反之,回步骤2;其中,ε是给 定的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于1个像素时,迭代终止, ε取值为0.5;

步骤(3)中,匹配区域搜索为尺度空间的局部最优搜索:

以当前搜索区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度 ±(10%-15%),搜索间隔5%;

在尺度变化搜索过程中,通过减小在多特征融合中梯度信息的权重减少对梯度特征信息的 干扰,通过改变灰度共生矩阵中的距离因子d减少对纹理特征信息的干扰。

2.根据权利要求1所述的复杂干扰场景下的目标跟踪方法,其特征在于:步骤(1)中, 多高斯背景模型的具体检测方法为:对视频中每一个像素点建立多高斯模型,通过统计的方 法估计出视频背景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为:

η(Yt,μt,i,∑t,i),i=1,2,3…k

其中,η表示高斯模型,t代表每个像素点,i代表高斯分布的个数,Yt代表像素点t的 亮度值,μt,i表示某一像素点其中一个高斯模型初始均值,∑t,i代表混合多高斯模型的叠加, 各高斯分布分别具有不同的权值ωt,i,∑iωt,i=1和优先级pt,i=ωt,it,i,其中σt,i是各高斯 分布的方差,各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,按 照高斯模型的排序,将各个权值相加,不超过阈值M的,则认为是背景部分,其他则是前景 分布。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安防制造(中国)有限公司,未经安防制造(中国)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/200910193009.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top