[发明专利]一种基于卷积神经网络的卫星图像分析方法在审
申请号: | 201810485955.9 | 申请日: | 2018-05-21 |
公开(公告)号: | CN108647666A | 公开(公告)日: | 2018-10-12 |
发明(设计)人: | 夏春秋 | 申请(专利权)人: | 深圳市唯特视科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518057 广东省深圳市高新技术产业园*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 微调 卷积神经网络 训练数据集 卫星图像 训练数据 案例信息 工作效率 区域地图 时间成本 使用数据 数据特性 提取信息 应用程序 语义分割 灾害管理 自动处理 可用 子集 创建 分析 绘制 验证 检测 拓展 学习 | ||
本发明中提出的一种基于卷积神经网络的卫星图像分析方法,其主要内容包括:确定案例、创建训练数据集、使用数据集训练并验证、获取新案例信息、为新案例微调模型,其过程为,采用深度学习,先选取案例,接着创建与案例相关的训练数据集,并从训练数据集中提取信息,然后使用训练数据的子集检测其能力,经过训练的模型为新案例做好准备,再根据实际适当对模型微调,最后由模型自动处理剩余案例中的数据。本发明可用于各种灾害管理应用程序,能够对受灾区域进行语义分割,绘制受灾区域地图,大大降低时间成本,提高工作效率;同时也可以很容易地对数据特性进行微调以便拓展到新的领域。
技术领域
本发明涉及卫星图像分析领域,尤其是涉及了一种基于卷积神经网络的卫星图像分析方法。
背景技术
在类似于野火、洪水、海啸或地震等紧急情况发生时,决策者需要在事件发生后在最短时间内获取有关居民区和基础设施受损信息。卫星图像分析形象直观、信息丰富,地表影像能够在极大的空间尺度上连续展示,进行各种区域范围的宏观研究,可应用于特征绘图,以便识别、定位、绘制地物及其特征,从而被制图者、地质勘测者使用;可应用于土地覆盖分类,该过程中,图像被分为一般的土地覆盖区域,如森林覆盖、空旷土地、庄稼、水域以及城市发展用地,从而被电讯设计者、自然资源管理者、地域规划者以及众多政府机构使用;此外,还可应用于地图矢量更新和变化检测等方面。然而,如果对所有损坏进行手动数字化处理,特别是对象相对较小或受影响地区范围相对较大时,这种绘制图像的方式将会十分费时。
本发明提出了一种基于卷积神经网络的卫星图像分析方法,采用深度学习,首先选取案例,接着创建与案例相关的训练数据集,然后从训练数据集中提取信息,接着使用训练数据的子集检测其能力,让经过训练的模型为新案例做好准备,再根据实际适当对模型微调,最后由模型自动处理剩余案例中的数据。本发明可用于各种灾害管理应用程序,能够对受灾区域进行语义分割,绘制受灾害区域地图,大大降低时间成本,提高工作效率;同时也可以很容易地对数据特性进行微调以便拓展到新的领域。
发明内容
针对灾害情况发生后获取破坏信息的时效性问题,本发明的目的在于提供一种基于卷积神经网络的卫星图像分析方法,先选取案例,创建与案例相关的训练数据集,然后从训练数据集中提取信息,接着使用训练数据的子集检测其能力,让经过训练的模型为新案例做好准备,再根据实际适当对模型微调,最后由模型自动处理剩余案例中的数据。
为解决上述问题,本发明提供一种基于卷积神经网络的卫星图像分析方法,其主要内容包括:
(一)确定案例;
(二)创建训练数据集;
(三)使用数据集训练并验证;
(四)获取新案例信息;
(五)为新案例微调模型。
其中,所述的卫星图像分析方法,首先确定案例,创建与案例相关的训练数据集,然后从训练数据集中提取信息,使用训练数据的子集验证其检测受灾害能力,经过训练的模型为新案例做好准备;尽管数据具有相似性,但是由于差异较小,所以还需要适当微调;最后由调整好的模型自动处理剩余案例中的数据。
其中,所述的确定案例,使用深度学习方法时,选择的案例应彼此相似切被限制在尽可能小范围内。
其中,所述的创建训练数据集,深卷积网络神经需要大量的训练数据,选择分辨率高/正射校正效果好、映射完整的数据,对于信息不完整的,应当提前进行处理改造。
进一步地,所述的数据集,训练数据要由真实数据以及注释概述该类型的每个结构标签组成,数据集的特征在提取之前需要经过外观检测和适当标记注解。
其中,所述的使用数据集训练并验证,深度学习从训练数据集中提取重要信息,使用训练数据的子集区验证其检测受灾害情况的能力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市唯特视科技有限公司,未经深圳市唯特视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810485955.9/2.html,转载请声明来源钻瓜专利网。