[发明专利]基于上下文的目标尺度自适应跟踪方法在审

专利信息
申请号: 201610502966.4 申请日: 2016-06-30
公开(公告)号: CN106127811A 公开(公告)日: 2016-11-16
发明(设计)人: 蒋晓悦;邹贽丞;冯晓毅;李会方;吴俊;谢红梅;何贵青 申请(专利权)人: 西北工业大学
主分类号: G06T7/20 分类号: G06T7/20
代理公司: 西北工业大学专利中心 61204 代理人: 金凤
地址: 710072 *** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供了一种基于上下文的目标尺度自适应跟踪方法,涉及一种图像跟踪领域,本发明以现有尺度方向自适应均值漂移算法为基础,使用基于表观特征和上下文信息的目标尺度调整算法对目标尺度调整机制进行改进,本发明的方法主要包括基于上下文信息的尺度调整类型确定,以及调用调整函数利用表观信息与上下文信息的尺度计算两部分,通过在调整机制中引入目标尺度的上下文信息,在考量表观信息的基础上,以尺度上下文信息的变化对调整类型进行细致分类,从而提高了原算法对目标尺度在目标面积数值与有效覆盖面积上的调整准确度,能有效提高原SOAMS算法对目标尺度的调整准确度。
搜索关键词: 基于 上下文 目标 尺度 自适应 跟踪 方法
【主权项】:
一种基于上下文的目标尺度自适应跟踪方法,其特征在于包括下述步骤:第一步:在视频序列初始帧中确定目标并计算目标模型目标模型由以目标中心为原点的像素集合{xi}i=1,2,...N,组成,N表示目标区域的像素点的个数,以fe表示目标特征空间中的特征索引,则目标可建模为:<mrow><mtable><mtr><mtd><mrow><mi>q</mi><mo>=</mo><msub><mrow><mo>{</mo><msub><mi>q</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mo>}</mo></mrow><mrow><mi>f</mi><mi>e</mi><mo>=</mo><mn>1</mn><mo>,</mo><mn>2</mn><mo>,</mo><mo>...</mo><mo>,</mo><mi>M</mi></mrow></msub></mrow></mtd></mtr><mtr><mtd><mrow><msub><mi>q</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mo>=</mo><mi>C</mi><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><mi>k</mi><mrow><mo>(</mo><mo>|</mo><mo>|</mo><mfrac><msub><mi>x</mi><mi>i</mi></msub><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup><mo>)</mo></mrow><mi>&delta;</mi><mo>&lsqb;</mo><mi>b</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mi>e</mi><mo>&rsqb;</mo></mrow></mtd></mtr></mtable><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>式中:q——目标模型;qfe——第fe个特征在目标模型上的概率;M——特征空间分量数δ——选择函数;b(xi)——对应像素处颜色特征值;k(x)——加权核函数,为距中心远的像素分配较小的权值;||xi||2——计算像素模值,表征像素距中心的远近;C——归一化系数,计算式如下<mrow><mi>C</mi><mo>=</mo><mfrac><mn>1</mn><mrow><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></munderover><mi>k</mi><mrow><mo>(</mo><mo>|</mo><mo>|</mo><mfrac><msub><mi>x</mi><mi>i</mi></msub><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup><mo>)</mo></mrow></mrow></mfrac><mo>;</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow></mrow>h——核函数窗宽,表征跟踪窗体的大小;第二步:计算目标区域的矩统计特征与方差阵,确定搜索区域,在搜索区域内确定搜索区域模型p(X),确定方法如下:本发明中使用矩统计特征对图像中包含的目标的尺度进行描述,对于图像像素值为f(x,y)的区域,该区域的(p+q)阶矩特征定义为Mpq=∫∫xp*yq*f(x,y)dxdy,p,q=0,1,...∞   (5)根据矩特征定义,将目标区域的中心坐标与像素点集合的坐标代入式(5)即可求得目标区域的二阶矩μ02、μ11、μ20,构造协方差阵对协方差阵进行奇异值分解得到其特征值:<mrow><mtable><mtr><mtd><mrow><mi>C</mi><mi>o</mi><mi>v</mi><mo>=</mo><mi>U</mi><mo>*</mo><mi>S</mi><mo>*</mo><msup><mi>U</mi><mi>T</mi></msup></mrow></mtd></mtr><mtr><mtd><mrow><mo>=</mo><mfenced open = "(" close = ")"><mtable><mtr><mtd><msub><mi>u</mi><mn>11</mn></msub></mtd><mtd><msub><mi>u</mi><mn>12</mn></msub></mtd></mtr><mtr><mtd><msub><mi>u</mi><mn>21</mn></msub></mtd><mtd><msub><mi>u</mi><mn>22</mn></msub></mtd></mtr></mtable></mfenced><mo>*</mo><mfenced open = "(" close = ")"><mtable><mtr><mtd><msubsup><mi>&lambda;</mi><mn>1</mn><mn>2</mn></msubsup></mtd><mtd><mn>0</mn></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><msubsup><mi>&lambda;</mi><mn>2</mn><mn>2</mn></msubsup></mtd></mtr></mtable></mfenced><mo>*</mo><msup><mfenced open = "(" close = ")"><mtable><mtr><mtd><msub><mi>u</mi><mn>11</mn></msub></mtd><mtd><msub><mi>u</mi><mn>12</mn></msub></mtd></mtr><mtr><mtd><msub><mi>u</mi><mn>21</mn></msub></mtd><mtd><msub><mi>u</mi><mn>22</mn></msub></mtd></mtr></mtable></mfenced><mi>T</mi></msup></mrow></mtd></mtr></mtable><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>6</mn><mo>)</mo></mrow></mrow>式中:λ12——目标区域矩特征的特征值;U——特征分解得到的特征向量构成的矩阵;UT——矩阵U的转置矩阵;S——对Cov阵进行分解后得到的中间转化矩阵;(u11,u21)T,(u12,u22)T——分别为矩特征的特征值λ12的特征向量;此时由式(6)得到的矩阵S以椭圆形表征了目标的尺度信息,SOAMS算法以椭圆中心为原点,重新构建以椭圆长短半轴为坐标轴的坐标系,即本原坐标系,求得当前椭圆的长短半轴的尺度为a和b,由于a、b与λ12都表征了目标的长短半轴,则有λ12≈ab,设a=k*λ1,b=k*λ2,其中k为尺度因子,根据目标区域面积A及椭圆面积公式S=π*a*b,有A=π*a*b=π*(k*λ1)*(k*λ2),两式联立可求出k为<mrow><mi>k</mi><mo>=</mo><msqrt><mrow><mi>A</mi><mo>/</mo><mrow><mo>(</mo><mi>&pi;</mi><mo>*</mo><msub><mi>&lambda;</mi><mn>1</mn></msub><mo>*</mo><msub><mi>&lambda;</mi><mn>2</mn></msub><mo>)</mo></mrow></mrow></msqrt><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>7</mn><mo>)</mo></mrow></mrow>此时求出a,b,则Cov阵可转化为本原坐标系下的形式:<mrow><msub><mi>Cov</mi><mn>1</mn></msub><mo>=</mo><mi>U</mi><mo>*</mo><mfenced open = "(" close = ")"><mtable><mtr><mtd><msup><mi>a</mi><mn>2</mn></msup></mtd><mtd><mn>0</mn></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><msup><mi>b</mi><mn>2</mn></msup></mtd></mtr></mtable></mfenced><mo>*</mo><msup><mi>U</mi><mi>T</mi></msup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>8</mn><mo>)</mo></mrow></mrow>由式(8)得到的新构造的协方差阵Cov1可使用递增增量Δd确定表征目标在下一帧中的搜索区域尺度的协方差阵Cov2如式(9),在本发明中所使用的增量模值为5个像素:<mrow><msub><mi>Cov</mi><mn>2</mn></msub><mo>=</mo><mi>U</mi><mo>*</mo><mfenced open = "(" close = ")"><mtable><mtr><mtd><msup><mrow><mo>(</mo><mi>a</mi><mo>+</mo><mi>&Delta;</mi><mi>d</mi><mo>)</mo></mrow><mn>2</mn></msup></mtd><mtd><mn>0</mn></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><msup><mrow><mo>(</mo><mi>b</mi><mo>+</mo><mi>&Delta;</mi><mi>d</mi><mo>)</mo></mrow><mn>2</mn></msup></mtd></mtr></mtable></mfenced><mo>*</mo><msup><mi>U</mi><mi>T</mi></msup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>9</mn><mo>)</mo></mrow></mrow>式中:Δd——递增增量,用以控制搜索区域的大小变化;a——目标区域长半轴;b——目标区域短半轴;此时满足下式的像素点集合X则为下一帧中的搜索区域坐标<mrow><mo>(</mo><mi>X</mi><mo>-</mo><msub><mi>X</mi><mi>o</mi></msub><mo>)</mo><mo>*</mo><msubsup><mi>Cov</mi><mn>2</mn><mrow><mo>-</mo><mn>1</mn></mrow></msubsup><mo>*</mo><msup><mrow><mo>(</mo><mi>X</mi><mo>-</mo><msub><mi>X</mi><mi>o</mi></msub><mo>)</mo></mrow><mi>T</mi></msup><mo>&le;</mo><mn>1</mn><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>10</mn><mo>)</mo></mrow></mrow>目标搜索区域由目标搜索区域内的像素集合X'={x'i}i=1,2,...N',组成,其中心记为Xo',N'表示目标搜索区域的像素点的个数,以fe表示目标特征空间中的特征索引,则目标搜索区域可建模为:<mrow><mtable><mtr><mtd><mrow><mi>p</mi><mrow><mo>(</mo><mi>X</mi><mo>)</mo></mrow><mo>=</mo><msub><mrow><mo>{</mo><msub><mi>p</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mo>}</mo></mrow><mrow><mi>f</mi><mi>e</mi><mo>=</mo><mn>1</mn><mo>,</mo><mn>2</mn><mo>,</mo><mo>...</mo><mo>,</mo><msup><mi>N</mi><mo>&prime;</mo></msup></mrow></msub></mrow></mtd></mtr><mtr><mtd><mrow><msub><mi>p</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mrow><mo>(</mo><mi>X</mi><mo>)</mo></mrow><mo>=</mo><msub><mi>C</mi><mi>h</mi></msub><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><msup><mi>N</mi><mo>&prime;</mo></msup></munderover><mi>k</mi><mrow><mo>(</mo><mo>|</mo><mo>|</mo><mfrac><mrow><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup><mo>-</mo><msubsup><mi>X</mi><mi>o</mi><mo>&prime;</mo></msubsup></mrow><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup><mo>)</mo></mrow><mi>&delta;</mi><mo>&lsqb;</mo><mi>b</mi><mrow><mo>(</mo><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mi>e</mi><mo>&rsqb;</mo></mrow></mtd></mtr></mtable><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>11</mn><mo>)</mo></mrow></mrow>式中:p(X)——目标搜索区域模型;pfe(X)——第fe个特征在目标模型上的概率;b(xi')——对应像素处颜色特征值;Ch——归一化系数,计算式如下:<mrow><msub><mi>C</mi><mi>h</mi></msub><mo>=</mo><mfrac><mn>1</mn><mrow><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><msup><mi>N</mi><mo>&prime;</mo></msup></munderover><mi>k</mi><mrow><mo>(</mo><mo>|</mo><mo>|</mo><mfrac><mrow><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup><mo>-</mo><msubsup><mi>X</mi><mi>o</mi><mo>&prime;</mo></msubsup></mrow><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup><mo>)</mo></mrow></mrow></mfrac><mo>;</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>12</mn><mo>)</mo></mrow></mrow>第三步:由均值漂移算法在搜索区域内求得候选区域,计算候选区域特征在由第一步、第二步得到目标模型q与搜索区域模型pfe(X)后,由均值漂移算法,计算如式(13)均值漂移向量Xo,在一次搜索任务中每一次迭代搜索结束后Xo的值将赋给迭代起始点X'o进行下一次迭代搜索,在搜索任务结束后Xo值为得到的最优搜索区域的质心坐标,此时最优搜索区域重合即为目标候选区域,式(13)所示的均值漂移向量通过计算目标候选区域内像素点x'i与迭代起始点X'o的加权距离与搜索区域的零阶矩之比得到,其中权值wi为候选区域内第i个像素对应的特征隶属于目标模型的概率,候选区域内第i个像素所对应的特征由特征计算函数b(xi)确定;<mrow><msub><mi>X</mi><mi>o</mi></msub><mo>=</mo><mfrac><mrow><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><msup><mi>N</mi><mo>&prime;</mo></msup></munderover><msub><mi>x</mi><mi>i</mi></msub><msub><mi>w</mi><mi>i</mi></msub><mi>g</mi><mrow><mo>(</mo><mrow><mo>|</mo><mo>|</mo><mfrac><mrow><msubsup><mi>X</mi><mi>o</mi><mo>&prime;</mo></msubsup><mo>-</mo><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup></mrow><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup></mrow><mo>)</mo></mrow></mrow><mrow><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><msup><mi>N</mi><mo>&prime;</mo></msup></munderover><msub><mi>w</mi><mi>i</mi></msub><mi>g</mi><mrow><mo>(</mo><mrow><mo>|</mo><mo>|</mo><mfrac><mrow><msub><mi>X</mi><mi>o</mi></msub><mo>-</mo><msubsup><mi>x</mi><mi>i</mi><mo>&prime;</mo></msubsup></mrow><mi>h</mi></mfrac><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup></mrow><mo>)</mo></mrow></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>13</mn><mo>)</mo></mrow></mrow><mrow><msub><mi>w</mi><mi>i</mi></msub><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>f</mi><mi>e</mi><mo>=</mo><mn>1</mn></mrow><msup><mi>N</mi><mo>&prime;</mo></msup></munderover><msqrt><mfrac><msub><mi>q</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mrow><msub><mi>p</mi><mrow><mi>f</mi><mi>e</mi></mrow></msub><mrow><mo>(</mo><mi>X</mi><mo>)</mo></mrow></mrow></mfrac></msqrt><mi>&delta;</mi><mo>&lsqb;</mo><mi>b</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mi>e</mi><mo>&rsqb;</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>14</mn><mo>)</mo></mrow></mrow>式中:X'o——迭代起始点x'i——搜索区域内像素点wi——搜索区域内各像素点对应的权值g(x)——加权核函数,为距中心远的像素分配较小的权值;第四步:由目标候选区域特征得到的巴氏系数与目标候选区域面积N,调用本发明所提出的基于表观信息与上下文信息的尺度调整机制,对目标候选区域的面积进行调整,进行调整的操作为:首先由前一时刻确定的目标面积及目标的运动规律确定当前的估计面积M;根据当前目标候选区域的尺度N与目标当前估计尺度M,判定当前调整类型;若当前尺度优先度最高,则使用分段型函数,通过计算N/M的数值确定使用何式计算,并代入巴氏系数与N、M变量进行计算,反之,则使用学习型函数,通过计算N/M的数值确定使用何式计算基础输出ref,并根据ref的输出与N/M的数值判定是否需要进行截断或附加增益;若确需附加增益则对增益进行确定;所述的基于表观信息与上下文信息的尺度调整机制包括如下步骤:4.1、基于上下文信息的调整类型的确定假设当前目标候选区域的巴氏系数为Bi,前一帧中目标区域的巴氏系数为Bi‑1,当前目标候选区域面积为N,根据前一帧中目标尺度,经由仿射变换得到当前目标面积的估计值M;调整类型的确定由N与M的大小关系进行确定,若N≥M,表示目标候选区域面积N大于等于当前目标面积的估计值M,需要在目标候选区域内选取目标的表观特征,用表观特征建立特征分布直方图,计算表观特征相似度对目标候选区域面积N进行缩小操作以符合目标的真实尺度;反之,若N<M,则表示目标候选区域的面积N小于当前目标面积的估计值M,则需要在目标候选区域内选取目标的表观特征,用表观特征建立特征分布直方图,来计算表观特征相似度对目标候选区域面积N进行放大操作以符合目标的真实尺度;4.2、基于表观信息与上下文信息的尺度计算若存在镜头漂移造成目标位置变动过大导致相邻视频帧中的目标位置互不交叠且跟踪任务中以最大化覆盖面积优先时,使用学习型函数;若镜头位置固定且以跟踪任务以最小化面积调整误差优先时,使用分段指数函数;调整函数类型确定后,调用对应的调整函数依据当前候选区域的巴氏系数进行计算;4.2.1使用学习型函数时,若调整类型根据步骤一确定为缩小操作,则根据当前目标候选区域的巴氏系数Bi计算尺度;若调整类型根据步骤一确定为放大操作,则根据当前目标候选区域的巴氏系数Bi与前一帧中目标区域的巴氏系数Bi‑1进行计算,目标尺度进行缩小和放大调整的步骤如下:(1)调用基础调整函数,确定基础输出,即输出参考值,根据N与M的比值由式(15)计算输出参考值ref;(2)调用式(16)对输出参考值ref进行判定:若N/M≥1.1且ref<1,则调整系数c的值为此时ref的值;若N/M≥1.1且ref>1,则对ref的数值进行截断,本发明使用的截断值为0.6,即此时的调整系数c为0.6;若N/M<1.1,则调用式(17)的增益放大函数对ref进行放大,此时由巴氏系数之比(Bi/Bi‑1)确定当前的增益大小对ref的放大系数k;<mrow><mfenced open = "" close = "}"><mtable><mtr><mtd><mrow><mi>r</mi><mi>e</mi><mi>f</mi><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>1.1</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>N</mi><mo>/</mo><mi>M</mi><mo>&lt;</mo><mo>=</mo><mn>1.1</mn></mrow></mtd></mtr><mtr><mtd><mrow><mi>M</mi><mi>a</mi><mi>x</mi><mrow><mo>(</mo><mn>0.8</mn><mo>,</mo><mn>9.5</mn><mo>*</mo><mi>t</mi><mi>e</mi><mi>m</mi><mi>p</mi><mo>)</mo></mrow><mo>,</mo></mrow></mtd><mtd><mrow><mi>e</mi><mi>l</mi><mi>s</mi><mi>e</mi></mrow></mtd></mtr></mtable></mfenced></mrow></mtd></mtr><mtr><mtd><mrow><mi>t</mi><mi>e</mi><mi>m</mi><mi>p</mi><mo>=</mo><mfrac><mrow><mi>p</mi><mn>1</mn><mo>*</mo><msubsup><mi>B</mi><mi>i</mi><mn>2</mn></msubsup><mo>+</mo><mi>p</mi><mn>2</mn><mo>*</mo><msub><mi>B</mi><mi>i</mi></msub><mo>+</mo><mi>p</mi><mn>3</mn></mrow><mrow><msubsup><mi>B</mi><mi>i</mi><mn>2</mn></msubsup><mo>+</mo><mi>q</mi><mn>1</mn><mo>*</mo><msub><mi>B</mi><mi>i</mi></msub><mo>+</mo><mi>q</mi><mn>2</mn></mrow></mfrac></mrow></mtd></mtr><mtr><mtd><mrow><mi>p</mi><mn>1</mn><mo>=</mo><mn>2272</mn><mo>,</mo><mi>p</mi><mn>2</mn><mo>=</mo><mo>-</mo><mn>3346</mn><mo>,</mo><mi>p</mi><mn>3</mn><mo>=</mo><mn>1249</mn><mo>,</mo><mi>q</mi><mn>1</mn><mo>=</mo><mo>-</mo><mn>3300</mn><mo>,</mo><mi>q</mi><mn>2</mn><mo>=</mo><mn>3298</mn></mrow></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>15</mn><mo>)</mo></mrow></mrow><mrow><mi>c</mi><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>0.6</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>r</mi><mi>e</mi><mi>f</mi><mo>&gt;</mo><mn>1</mn><mi>a</mi><mi>n</mi><mi>d</mi><mi> </mi><mi>N</mi><mo>/</mo><mi>M</mi><mo>&gt;</mo><mo>=</mo><mn>1.1</mn></mrow></mtd></mtr><mtr><mtd><mrow><mi>r</mi><mi>e</mi><mi>f</mi><mo>,</mo></mrow></mtd><mtd><mrow><mi>r</mi><mi>e</mi><mi>f</mi><mo>&lt;</mo><mn>1</mn><mi>a</mi><mi>n</mi><mi>d</mi><mi> </mi><mi>N</mi><mo>/</mo><mi>M</mi><mo>&gt;</mo><mo>=</mo><mn>1.1</mn></mrow></mtd></mtr><mtr><mtd><mrow><mi>k</mi><mo>*</mo><mi>r</mi><mi>e</mi><mi>f</mi><mo>,</mo></mrow></mtd><mtd><mrow><mi>e</mi><mi>l</mi><mi>s</mi><mi>e</mi></mrow></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>16</mn><mo>)</mo></mrow></mrow><mrow><mi>k</mi><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>3.3</mn><mo>,</mo></mrow></mtd><mtd><mrow><msub><mi>B</mi><mi>i</mi></msub><mo>/</mo><msub><mi>B</mi><mrow><mi>i</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>&gt;</mo><mo>=</mo><mn>1.2</mn></mrow></mtd></mtr><mtr><mtd><mrow><mn>2.8</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>e</mi><mi>l</mi><mi>s</mi><mi>e</mi></mrow></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>17</mn><mo>)</mo></mrow></mrow>其中,temp为临时拟合函数,p1、p2、p3、q1和q2分别为学习函数拟合系数,Bi为第i帧中的巴氏系数,Bi‑1为第i‑1帧中的巴氏系数,k为增益系数,ref为基础输出;(3)得到校正系数c后可计算得到修正面积A=c*N;4.2.2使用分段指数函数时:(1)依据当前调整类型,调用式(18)所示的分段指数型调整函数,确定调整系数c:式中Bi为第i帧中的巴氏系数;(2)由步骤4.2.2的步骤(1)得到的校正系数c,可计算得到修正面积A=c*N;第五步:计算当前协方差阵,标记目标,确定下一帧中目标的搜索区域,协方差阵与标记目标时所需的长短半轴的计算步骤与第二步相同,重复执行第三步至第五步直到跟踪标记任务结束。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610502966.4/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top