[发明专利]一种基于ORB和SURF特征的快速图像匹配方法在审
申请号: | 202211299594.1 | 申请日: | 2022-10-24 |
公开(公告)号: | CN115861640A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 朱志浩;鹿志旭;高直;张春富;周天池;阚加荣 | 申请(专利权)人: | 盐城工学院 |
主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/74 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 224051 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 orb surf 特征 快速 图像 匹配 方法 | ||
本发明涉及图像处理领域,特别是指一种基于ORB和SURF特征的快速图像匹配方法。该方法包括:输入图像一和图像二;通过ORB分别检测所述图像一和图像二中的特征点;通过SURF特征对上述检测出的角点信息添加方向信息并进行特征描述;将所述图像一的特征描述符和图像二的特征描述符,根据FLANN匹配和双向匹配完成初始粗匹配;根据PROSAC算法消除所述粗匹配中的误匹配;生成所述图像一和图像二中特征点的匹配关系。能够有效提高图像匹配技术的精准度和速度,同时降低误匹配点的产生。
技术领域
本发明涉及图像处理领域,特别是指一种基于ORB和SURF特征的快速图像匹配方法。
背景技术
随着科技的进步,图像匹配技术是当下计算机视觉中的研究重点之一。图像匹配是计算机视觉领域中图像处理应用的关键技术,被广泛应用在医学图像分析、飞机导航、目标识别与跟踪等领域。因此,对于图像匹配技术的研究具有重要的理论意义和实用价值。
图像匹配技术的关键问题主要在于精准性和速度,常见的图像匹配方法主要为基于灰度信息和基于特征信息两类,前者通过对图像的像素区域遍历以此达到匹配目的,计算量大且易受噪声影响;后者通过分析图像的特征信息进行匹配,计算量小且精准度高,且其在不同环境的影响下都具有更好的性能,因此基于特征信息的图像匹配方法得到了更为广泛的应用。
图像特征匹配通常包括特征检测、特征提取和特征描述符生成及匹配三部分构成。迄今为止,学者们提出了很多基于特征信息的图像匹配算法,David Lowe提出了尺度不变特征变化(SIFT)算法,在光照、旋转、尺度等影响下具有较好的不变性,但算法复杂导致匹配速度慢,降低匹配实时性。Bay等在SIFT算法的基础上优化提出了加速鲁棒特征(SURF)算法,通过引入积分图像极大提高了算法的实时性,但匹配点数下降。Rublee等[10]提出了ORB算法,该算法通过改进FAST算法提高特征检测速度,采用rBRIEF二进制描述符特征描述符,匹配速度得到了很大提高。在图像特征匹配方面,也有着越来越多的研究,Brute Force匹配是一种常见的图像特征匹配方法,通过对一个图像选取一个特征点,然后对待匹配图像的特征点进行遍历,根据每组数据间的距离大小,选取最佳匹配。Fischler在1981年提出RANSAC算法,RANSAC算法的基本思想是利用迭代方法从包含诸多内点和外点的数据集中寻求更多包含支持内点更优的模型参数,再用模型的余集检验抽取的样本,从而有效的消除异常值。
其中:ORB算法是在FAST和BRIEF算法的基础上做了改进和优化的结合体,加快了计算速度上,但往往忽略其图像匹配的精准性,影响最终的匹配效果。在面对高维特征问题上,Brute Force匹配无法得到较好的匹配效果,且该算法是尝试所有的可能匹配,算法时间过长,所以易产生误匹配情况,需要对匹配结果进行提纯,提高匹配正确率。在消除误匹配过程中,RANSAC算法在获取模型参数时,随机抽取特征匹配点对,但特征匹配点对中匹配点对有优劣之分,如果抽取相似度较差的匹配点对,不仅浪费时间且效果欠佳。
因此,针对上述问题,如何提供一种精准度高且运行时间少的解决方法,是我们需要解决的问题。
发明内容
鉴于上述问题,本发明提供一种基于ORB和SURF特征的图像匹配方法,该方法能够提高图像匹配的精准性和速度,同时减少错误匹配,保留更高质量的特征点。
第一方面,本发明提供一种基于ORB和SURF特征的图像匹配方法,包括:
步骤1.输入图像一和图像二;
步骤2.通过ORB分别检测所述图像一和图像二中的特征点;
步骤3.通过SURF特征对上述检测出的角点信息添加方向信息并进行特征描述;
步骤4.将所述图像一的特征描述符和图像二的特征描述符,根据FLANN匹配和双向匹配完成初始粗匹配;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于盐城工学院,未经盐城工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211299594.1/2.html,转载请声明来源钻瓜专利网。