[发明专利]一种基于快速特征匹配的图像位置偏移检测方法在审
申请号: | 201710443480.2 | 申请日: | 2017-06-13 |
公开(公告)号: | CN109146963A | 公开(公告)日: | 2019-01-04 |
发明(设计)人: | 任大明;汪辉;任昌;刘晶 | 申请(专利权)人: | 南京鑫和汇通电子科技有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/136;G06T7/181 |
代理公司: | 山西华炬律师事务所 14106 | 代理人: | 杨秉一 |
地址: | 210032 江苏省南京市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 关键点 对比图像 匹配 图像位置偏移 偏移量 检测 快速特征 特征集合 特征向量 直线特征 图像片 角点 图像 计算目标 匹配图像 边缘点 归一化 匹配点 下采样 剔除 集合 分割 | ||
1.一种基于快速特征匹配的图像位置偏移检测方法,其特征在于,包括以下步骤:
1)在计算机中输入预定的标准图像和待测的目标图像;
2)对标准图像进行高斯滤波处理以消除噪声的影响;
3)利用Hough变换提取滤波后标准图像的直线特征,并得到所有直线斜率k和截距b;
4) 在步骤3)得到的所有直线中依次寻找强度最大的N条直线,将每条直线用参数(k,b)表示并将其转换为极坐标下的参数表示形式(distance,angle),得到标准图像在Hough空间中的的N个坐标点(distance,angle);
5)利用canny边缘检测算法获取标准图像的边缘点集合,计算标准图像的梯度图并运用FAST角点检测方法获取角点特征集合;
6)对标准图像以预设的采样率进行n次下采样,并将n次下采样后的图像运用FAST角点检测方法获取角点特征集合,且将边缘点集合和所有的角点特征集合合并后获取关键点特征集合,n大于1且小于5;
7)将标准图像分割成若干个大小的图像片,在每个图像片上的关键点特征集合中寻找强度最大的一个关键点,形成更新后的关键点特征集合,L大于5小于15;
8)构造更新后的关键点集合中的每个关键点的局部邻域,并利用邻域主方向和平均方向获取稀疏的邻域,以此获得每个关键点的维特征向量并进行归一化处理;
9)利用更新后的关键点与其对应的维特征向量构造kd树结构,利用步骤4)中得到的N个坐标点(distance,angle)和kd树结构共同组成标准图像模型;
10)对目标图像依次执行上述步骤,获取目标图像在Hough空间中的N个坐标点(distance,angle)和目标图像的kd树结构;
11)将标准图像和目标图像在Hough空间中N个强度最大的坐标点进行预先匹配,若具有相同的坐标点(distance,angle)就相互匹配,否则计算标准图像和目标图像的所有的对应的坐标点之间的偏移量(distance_shift,angle_shift),最后计算平均偏移量(distance_shift_average,angle_shift_average);
12)利用标准图像和目标图像的kd树结构进行关键点快速匹配,获取初级匹配的关键点对集合;
13)将步骤11)中获取的平均偏移量(distance_shift_average,angle_shift_average)作为给定的偏移量阈值,运用RANSAC算法剔除关键点对集合中偏移量大于给定阈值的关键点对,获取终极匹配的关键点对集合和单应性变换矩阵;
14)利用单应性变换矩阵对目标图像进行变换,使得标准图像和目标图像处于同一坐标系下,然后计算目标图像上终极匹配的关键点的坐标;根据终极匹配的关键点对坐标计算目标图像在X方向和Y方向的平均偏移量,分别记作Xoffset和Yoffset。
2.根据权利要求1所述的图像位置偏移检测方法,其特征在于,还包括以下步骤:15)以目标图像的中心位置(x,y)为起点,(x+Xoffset,y+Yoffset)为终点,在目标图像上显示目标图像与标准图像间的位置偏移向量,直观观测目标图像的位置偏移。
3.根据权利要求1所述的图像位置偏移检测方法,其特征在于,所述步骤5)中利用canny边缘检测算法获取标准图像的所有边缘点的方法为:
21)对输入到计算机中的标准图像进行高斯滤波以减少图像噪声的干扰;
22)计算滤波后的图像中每个像素点的梯度值和方向;
23)对每个像素点的梯度值进行非极大值抑制,初步得到图像边缘点集合;
24)采用双阈值方法进行边缘连接,剔除虚假边缘,补全边缘缺口,获得更精确的边缘点集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京鑫和汇通电子科技有限公司,未经南京鑫和汇通电子科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710443480.2/1.html,转载请声明来源钻瓜专利网。