[发明专利]机场识别中基于局部全局特征联合决策的聚类方法有效

专利信息
申请号: 201310644276.9 申请日: 2013-12-02
公开(公告)号: CN103699909B 公开(公告)日: 2016-10-26
发明(设计)人: 张艳宁;杨涛;屈冰欣;马文广 申请(专利权)人: 西北工业大学
主分类号: G06K9/64 分类号: G06K9/64;G06K9/00;G06T7/00
代理公司: 西北工业大学专利中心 61204 代理人: 王鲜凯
地址: 710072 *** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种机场识别中基于局部全局特征联合决策的聚类方法,用于解决现有基于特征目标匹配识别地图中特殊图标的方法实时性差的技术问题。技术方案是首先在第K帧启动多视角Surf特征匹配线程,特征匹配后得到与第K帧最匹配的模板图像的某个视角图像以及在第K帧的目标位置;其次,同时启动相邻两帧的Orb特征匹配线程,进行特征匹配得到相邻两帧以及从第K帧到当前帧的单应矩阵;再次,结合多视角Surf特征匹配和相邻两帧Orb特征匹配得到目标在当前帧的位置;最后,启动多视角Surf特征匹配线程进行校正。本发明弥补了特征匹配时对视角考虑不足的缺陷,而且运算时间为每帧30ms,达到了实时性的要求。
搜索关键词: 机场 识别 基于 局部 全局 特征 联合 决策 方法
【主权项】:
一种机场识别中基于局部全局特征联合决策的聚类方法,其特征在于包括以下步骤:步骤一、对于模板图像,首先生成各视点的图像;已有的ASIFT算法中模拟视角变化,变换矩阵<mrow><mi>A</mi><mo>=</mo><mfenced open='(' close=')'><mtable><mtr><mtd><mi>a</mi></mtd><mtd><mi>b</mi></mtd></mtr><mtr><mtd><mi>c</mi></mtd><mtd><mi>d</mi></mtd></mtr></mtable></mfenced></mrow>分解为:式中,λ>0,φ和为摄像机的视角,分别代表经度角和纬度角,ψ为摄像机的旋转角,Tt为倾斜程度;对倾斜参数t和经度角φ进行采样,参数t按照等比数列t=1,a,a2,...,an进行采样,其中n=5,参数φ按照等差数列φ=0,b/t,...,kb/t进行采样,其中b=72,kb/t<180°;将得到的t和φ的采样值代入下式:<mrow><msup><mi>I</mi><mo>&prime;</mo></msup><mrow><mo>(</mo><mi>&phi;</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='(' close=')'><mtable><mtr><mtd><mi>cos</mi><mi>&phi;</mi></mtd><mtd><mo>-</mo><mi>sin</mi><mi>&phi;</mi></mtd></mtr><mtr><mtd><mi>sin</mi><mi>&phi;</mi></mtd><mtd><mi>cos</mi><mi>&phi;</mi></mtd></mtr></mtable></mfenced><mo>&CenterDot;</mo><mfenced open='(' close=')'><mtable><mtr><mtd><mi>t</mi></mtd><mtd><mn>0</mn></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mn>1</mn></mtd></mtr></mtable></mfenced><mo>&CenterDot;</mo><mi>I</mi><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>2</mn><mo>)</mo></mrow></mrow>式中,I为输入图像,I′(φ,t)为模拟一个视角的一个图像;取图像序列的第K帧,进行如下操作:①提取第K帧图像的Surf特征,Surf特征采样Henssian矩阵获取图像局部最值,在求主方向阶段依赖于局部区域像素的梯度方向;②分别提取模板图像及其生成的各视角的图像的Surf特征;③依次将第K帧图像与模板图像及其多视角图像进行特征匹配,匹配规则如下:取第K帧图像一个特征点向量X与模板图像某一视角图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的;统计该视角情况下所有匹配成功的点对,点对数目大于某一阈值threshold,则认为第K帧图像与该视角模板图像匹配成功;④当第K帧图像与模板图像的某视角图像匹配成功后,计算第K帧图像匹配成功点的最小外接矩形,即为第K帧图像中的目标位置;步骤二、选择Orb特征作为相邻两帧之间进行匹配的特征;取前一帧图像一个特征点向量X与后一帧图像的所有特征点向量进行点乘,若满足点乘积最小值不大于点乘积次小值与一个阈值相乘,则接受该特征点向量X与点乘积最小的特征向量是匹配成功的,获得相邻两帧之间匹配成功的点对;利用公式(3)求取相邻两帧之间的单应矩阵:<mrow><mfenced open='{' close=''><mtable><mtr><mtd><mi>q</mi><mo>=</mo><mi>Hp</mi></mtd></mtr><mtr><mtd><mi>H</mi><mo>=</mo><mfenced open='(' close=')'><mtable><mtr><mtd><msub><mi>h</mi><mn>11</mn></msub></mtd><mtd><msub><mi>h</mi><mn>12</mn></msub></mtd><mtd><msub><mi>h</mi><mn>13</mn></msub></mtd></mtr><mtr><mtd><msub><mi>h</mi><mn>21</mn></msub></mtd><mtd><msub><mi>h</mi><mn>22</mn></msub></mtd><mtd><msub><mi>h</mi><mn>23</mn></msub></mtd></mtr><mtr><mtd><msub><mi>h</mi><mn>31</mn></msub></mtd><mtd><msub><mi>h</mi><mn>32</mn></msub></mtd><mtd><msub><mi>h</mi><mn>33</mn></msub></mtd></mtr></mtable></mfenced><mo>=</mo><mfenced open='(' close=')'><mtable><mtr><mtd><msubsup><mi>h</mi><mn>1</mn><mi>T</mi></msubsup></mtd></mtr><mtr><mtd><msubsup><mi>h</mi><mn>2</mn><mi>T</mi></msubsup></mtd></mtr><mtr><mtd><msubsup><mi>h</mi><mn>3</mn><mi>T</mi></msubsup></mtd></mtr></mtable></mfenced></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>式中,p=(x,y,1)是前一帧图像上匹配成功的点的齐次坐标,q=(u,v,1)是对应在后一帧图像的点的齐次坐标;H是3×3的矩阵,其中,hi(i=1,2,3)为向量(hi1,hi2,hi3);通过单应矩阵H,每组对应点得到以下两个方程:<mrow><msubsup><mi>h</mi><mn>1</mn><mi>T</mi></msubsup><mi>p</mi><mo>-</mo><mi>u</mi><mrow><mo>(</mo><msubsup><mi>h</mi><mn>3</mn><mi>T</mi></msubsup><mi>p</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow></mrow><mrow><msubsup><mi>h</mi><mn>2</mn><mi>T</mi></msubsup><mi>p</mi><mo>-</mo><mi>v</mi><mrow><mo>(</mo><msubsup><mi>h</mi><mn>3</mn><mi>T</mi></msubsup><mi>p</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>5</mn><mo>)</mo></mrow></mrow>所有匹配上的点对代入上面两个方程,获得单应矩阵H;从第K帧开始启动相邻帧间Orb特征匹配线程,则从第K帧到第N帧图像的单应矩阵HKN由公式(6)得到:HKN=HN(N‑1)·H(N‑1)(N‑1)·…·H(K+1)K    (6)步骤三、当多视角图像Sruf特征匹配线程结束时,若未得到第K帧的目标位置,则令当前帧为第K帧,重新进行多视角Surf特征匹配和相邻帧间Orb特征匹配,直到得到第K帧的目标位置;若得到了第K帧的目标位置,则将该目标位置与相邻帧间Orb特征匹配得到的第K帧到第N帧的单应矩阵相乘,获得当前帧的目标位置:(xN,yN,1)T=HKN·(xK,yK,1)T    (7)式中,(xK,yK,1)T是图像多视角Surf特征匹配的结果,表示在第K帧目标位置框的四个坐标之一的齐次坐标,HKN为上一步得到的第K帧到第N帧的单应矩阵,则(xN,yN,1)T代表第N帧的目标框的四个坐标之一的齐次坐标;依次将四个坐标代入公式(7),得到第N帧的目标框;在获得当前帧目标位置的基础上,不启动多视角Surf特征匹配线程,只进行逐帧的Orb特征匹配,利用相邻两帧之间的单应矩阵,用公式(7)不断更新目标位置,并记录累积帧数;步骤四、当步骤三的累积帧数达到阈值,则启动多视角Surf特征匹配线程进行误差校正,用多视角Surf特征匹配与帧间匹配联合确定的目标位置替代原始目标位置。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201310644276.9/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top