[发明专利]基于增广齐次坐标矩阵的图像间错误匹配的检测方法有效
申请号: | 201711007628.4 | 申请日: | 2017-10-25 |
公开(公告)号: | CN107833207B | 公开(公告)日: | 2020-04-03 |
发明(设计)人: | 林宙辰;征妍 | 申请(专利权)人: | 北京大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/33;G06F16/583 |
代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 增广 坐标 矩阵 图像 错误 匹配 检测 方法 | ||
1.一种基于增广齐次坐标矩阵的图像间错误匹配的检测方法,首先计算查询图像Q和待查询图像中各匹配特征点的坐标分别对应的增广齐次坐标矩阵与其转置矩阵乘积的逆;再依据增广齐次坐标矩阵乘积行列式对应的二次式,计算得到更精确的锚点;重复上述步骤并不断减小锚点选择区间,直至锚点最大误差不大于设定的阈值;而后依据最终锚点完成全局验证,并准确找出错误匹配点;由此快速去除部分重复图像搜索中的误匹配,具有射影不变性;包括如下步骤:
步骤1:对于查询图像Q和待查询图像提取并匹配两幅图像中的特征点,得到两幅图像中各匹配特征点的坐标U和
步骤2:对U和进行预处理,得到初始锚点序列;
具体地,当U和坐标序列中无重复点时,初始锚点序列直接设置为匹配点的全部序列{1,2,…,n},其中n为匹配点数量;当U和坐标存在重复点时,采用前去除或者后去除重复坐标方法,即在一组重复坐标点中只保留最后一个点或第一个序号,全序列去除重复点后的序列即为初始锚点序列;
步骤3:依据U、和构建增广齐次坐标矩阵;其中,是锚点序列,首次计算时,锚点序列初始值由步骤2得到,叠代过程中,用上一步计算得到的新的锚点序列替代;输出其中,和分别表示在第t次叠代中计算得出的全部估算点的x坐标和y坐标;具体过程包括:
31)依据锚点序列构建U和中对应锚点的x坐标相应的增广齐次坐标矩阵:
依据锚点序列构建U和中对应锚点的y坐标相应的增广齐次坐标矩阵:
32)计算HxHx,T和HyHy,T的逆并分别分块,表示为如下形式:
和
其中,均为3阶方阵,为逆的6阶方阵的第1至3行中的1至3列,为逆的6阶方阵的第4至6行中的1至3列,其余类推;
33)依据逆的分块分别计算和其中,⊙是两个矩阵或向量的Hadamard矩阵乘积;
34)计算和并输出其中,和表示在第t次叠代中计算出的全部估算点的x坐标和y坐标;
步骤4:反复调用步骤3并不断减小锚点选择区间,直至锚点的最大误差不大于设定的锚点选择区间阈值;而后依据最终得到的锚点完成全局验证,找出错误匹配点;
步骤5:在全部序列{1,2,…,n}中去除步骤4得到的错误匹配点,使用图像间相似度计算方法计算图像间的相似度;最终根据相似度排序输出图像检索结果;由此完成图像间错误匹配的检测。
2.如权利要求1所述基于增广齐次坐标矩阵的图像间错误匹配的检测方法,其特征是,步骤1具体使用尺度不变特征变换SIFT和词袋模型BoF提取并匹配两幅图像中的特征点。
3.如权利要求1所述基于增广齐次坐标矩阵的图像间错误匹配的检测方法,其特征是,步骤4叠代计算的输入为U、δ(1)、ρ∈(0,1)、end_threshould,以及叠代次数t、初始设定的锚点序列的最大误差值D、锚点序列的初始化值;其中δ(1)为初始锚点区间,ρ为锚点区间减小系数,end_threshould为叠代结束标志,输出为算法最终检测到的外点索引值集合;具体包括如下过程:
41)依据锚点建立增广齐次坐标矩阵模型并计算出图像的预估坐标
42)计算锚点x坐标对应的平均差和标准差锚点y坐标对应的平均差和标准差
43)利用和对第一行标准化,同样用和对第二行标准化,再用锚点选择区间阈值δ(t)来界定各点是否能成为锚点序列中的一员,获取更新的锚点序列;
44)计算得出锚点序列的最大误差值D;
45)通过系数l逐步降低锚点序列选取区间;
46)执行步骤41)~45),循环计算,直至D小于等于设定阈值end_threshold,由此得到最终的锚点;
47)用U和及最终得到的锚点执行步骤41),完成全部点的几何验证,计算得到错误匹配点并输出。
4.如权利要求3所述基于增广齐次坐标矩阵的图像间错误匹配的检测方法,其特征是,end_threshould基于业界通用取值标准,优选地,end_threshould取值为5。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711007628.4/1.html,转载请声明来源钻瓜专利网。