[发明专利]基于时空深度学习融合技术的农作物全自动化分类方法有效
申请号: | 202110279564.3 | 申请日: | 2021-03-16 |
公开(公告)号: | CN112861802B | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 顾玲嘉;杨舒婷;任瑞治 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/26;G06V10/774;G06V10/82;G06V10/764;G06N3/08;G06N3/04 |
代理公司: | 吉林省中玖专利代理有限公司 22219 | 代理人: | 李泉宏 |
地址: | 130012 吉林省长春市*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 时空 深度 学习 融合 技术 农作物 自动化 分类 方法 | ||
1.基于时空深度学习融合技术的农作物全自动化分类方法,其特征在于,该方法的步骤如下:
步骤一、影像预处理:获取到的多时相高分辨率遥感影像是进行过几何精校正的正射影像,对该影像进行辐射定标与大气校正进而获取预处理之后的遥感影像;
步骤二、从原始的多时相Sentinel-2影像中提取有用的信息源,所述的信息源为可变大气阻力指数VARIgreen、比值建筑用地指数RBI和短波红外SWIR;
步骤三、对样本数据集进行提纯;
步骤四、利用步骤三获得的影像块训练融合地理信息的Geo-3D CNN网络,获得第一种分类结果;
步骤五、利用步骤三获得的影像块训练融合地理信息的Geo-Conv1D网络,获得第二种分类结果;
步骤六、采用Active Learning策略实现两种分类结果的融合,得到最终分类;
其中,步骤三对样本数据集进行提纯的步骤具体如下:
(a)从原始多时相遥感影像中提取信息源,利用OTSU分割算法对获取的信息源进行分割处理;
(b)根据分割结果在原始信息源上采用直方图统计的方法并根据设置的置信区间自动确定各类作物提取的阈值范围,进而获取粗训练样本;
(c)删除面积小于设定阈值的对象,去除小的异构点;
(d)去除各类样本的重叠区域;
(e)通过最优滑窗与最优影像块尺寸的设计挑选出的影像块和像素点纯净样本,
影像块训练样本最优滑窗选择结果:滑窗移动步长Stride=1,影像块大小与影像块样本滑窗尺寸之间遵循的关系如下:(s×b+P)×(s×b+P)=n×n(s=1,2,…,6;l=2,3,...,6;P=2);P=2代表在影像块样本周围扩充了一圈具有相同标签的数据,b×b代表影像块大小,s=1,2,3,…代表滑窗内部的样本数据被划分为s×s个大小为b×b的影像块,n×n代表挑选影像块样本的滑窗尺寸;
像素点训练样本最优滑窗选择结果:基于像素点的训练样本选择,根据实际情况设计滑窗大小m×m(m=6,7,…,14),保证滑窗内部的数据具有相同的标签,选择(m-1)×(m-1)大小的影像块制作像素点训练样本,为了保证像素点样本选择的不重复性,设计规则如下:
用(i,j)(i=1,2,…,(M-m+1);j=1,2,…,(N-m+1))表示输入影像某位置的横纵坐标,输入影像高度M,宽度N;
(a)如果i=1,j=1,提取(i+1:i+(m-1),j+1:j+(m-1))范围内的像素点样本;
(b)如果i=1,j≠1,提取(i+1:i+(m-1),j+(m-1))范围内的像素点样本;
(c)如果i≠1,j=1,提取(i+(m-1),j+1:j+(m-1))范围内的像素点样本;
(d)如果i≠1,j≠1,提取(i+(m-1),j+(m-1))位置的像素点样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110279564.3/1.html,转载请声明来源钻瓜专利网。