[发明专利]一种基于扩展随机游走算法的遥感图像亚像元定位方法有效
申请号: | 201910392198.5 | 申请日: | 2019-05-13 |
公开(公告)号: | CN110298883B | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 王鹏;张弓 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T5/00;G06T7/10 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 唐绍焜 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于扩展随机游走算法的遥感图像亚像元定位方法,包括如下步骤:(1)通过双立方插值对原始粗糙遥感图像进行处理,然后对处理后的遥感图像进行光谱解混,获得亚像元属于每个类别的比例,同时利用主成分分成提取处理后遥感图像的第一主成分,通过自适应分割算法分割第一主成分,生成不规则的目标对象;(2)利用扩展随机行走算法计算目标对象属于每个类别的比例,进而获得目标对象空间相关性;(3)采用基于目标单元的类分配方法得到最终亚像元定位结果。本发明旨在通过随机游走算法获得具有更全面信息的目标对象空间相关性,实现亚像定位技术的创新,为遥感图像的广泛应用提供技术支持。 | ||
搜索关键词: | 一种 基于 扩展 随机 游走 算法 遥感 图像 亚像元 定位 方法 | ||
【主权项】:
1.一种基于扩展随机游走算法的遥感图像亚像元定位方法,其特征在于:包括步骤:(1)通过双立方插值对原始粗糙遥感图像进行处理,然后对处理后的遥感图像进行光谱解混,获得亚像元属于每个类别的比例,同时利用主成分分成提取处理后遥感图像的第一主成分,通过自适应分割算法分割第一主成分,生成不规则的目标对象;具体为:(11)将分割尺度参数T定义为合并的终止条件,并以此确定生成目标对象的大小;(12)利用公式(1)计算基于多尺度自适应的分割方法:M=αMspectral+(1‑α)Mshape (1)其中M是区域异质性,α是平衡光谱异质性Mspectral和形状异质性Mshape的权重参数,Mspectral和Mshape分别由以下公式获得;![]()
其中,Vb是分割区域中第b波段光谱值的标准偏差,
是第b波段的光谱权重参数;l是分割区域中的实际边界长度,KI是分割区域中的亚像元数目,R表示分割区域中的矩形边界长度,
和l/R分别用于计算分割区域的平滑度和紧凑度,αshape是平衡权重参数,B为图像总的波段数;(13)在相邻的目标区域中将异质性最小的两个区域进行合并;当合并区域的区域异质性M大于预先定义的分割尺度参数T时,合并过程终止,产生目标对象;(2)利用扩展随机行走算法计算目标对象属于每个类别的比例,进而获得目标对象空间相关性;具体为:(21)将利用双立方插值处理后的遥感图像
通过自适应分割算法进行分割获得I个目标对象Oi,i=1,2,...,I;其中Oi包含
个亚像元;(22)目标对象Oi属于第n类的比例值Un(Oi)是通过平均该目标对象包含的所有亚像元pa属于第n类的比例值Hn(pa)获得,如公式(4)所示:
进一步将公式(4)进行归一化处理得到公式(5):
(23)利用扩展随机行走算法生成亚像元pa属于第n类的目标对象空间相关性En(pa),如公式(6)所示;
其中
表示相邻目标区域之间的空间信息,
表示每个目标区域内部的空间信息,
是列向量,γ是权重参数;
通过以下公式计算得出:
L是拉普拉斯矩阵,具体表达式如公式(8)所示:
其中
表示第i个目标对象Oi和第q个超像元Oq之间的光谱值差异;第i个目标对象Oi的光谱值
由以下公式给出:
其中ya表示在目标对象Oi中第a个亚像元的光谱值;
被定义为公式(10):
其中Λm是一个对角线矩阵,其中对角线上是每个超像元属于第m类的比例值;(3)采用基于目标单元的类分配方法得到最终亚像元定位结果;具体为:对目标对象空间相关性最小化,建立一个线性优化模型;类别标签根据这个模型分配给每个目标对象中的亚像元;线性优化模型如公式(11)和(12)所示:![]()
在使用类分配方法时,还需要满足以下约束条件:
其中第一个方程表明每个亚像元仅属于一个地物类别,第二个方程定义为每个目标对象内的亚像元的数量应与目标对象属于类别的比例值成比例;值得注意的是,当一个目标对象中只有纯的亚像元时,将同一类别的标签直接分配给该目标对象中的所有亚像元。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910392198.5/,转载请声明来源钻瓜专利网。