[发明专利]基于GIS技术和空间数据的地物检测Mask R-CNN模型训练方法有效
申请号: | 201911179390.2 | 申请日: | 2019-11-27 |
公开(公告)号: | CN110942029B | 公开(公告)日: | 2021-01-15 |
发明(设计)人: | 陈文龙;杨云丽;张煜;沈定涛;叶松 | 申请(专利权)人: | 长江水利委员会长江科学院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 武汉楚天专利事务所 42113 | 代理人: | 孔敏 |
地址: | 430010 *** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 gis 技术 空间 数据 地物 检测 mask cnn 模型 训练 方法 | ||
本方法提供一种基于GIS技术和空间数据的地物检测Mask R‑CNN模型训练方法,涵盖从空间数据生成模型训练样本库,到训练样本库与Mask R‑CNN模型实现相结合进行模型训练,然后训练结果存储分发的完整自动化流程。本发明可实现样本数据集的自动生成和有效管理,能够直接对原始空间数据进行Mask R‑CNN模型权重的自动化训练,并提供了对训练结果的管理共享,极大程度地降低了训练过程中的人工工作量,这对于推动Mask R‑CNN模型在地物检测方面的深入应用有着非常好的促进作用。实验结果表明,该技术为地物检测Mask R‑CNN模型的自动化训练提供了一套完整的技术流程方案,能较好地满足实际应用的需要。
技术领域
本方法涉及地理信息、遥感和深度学习技术领域,具体是一种基于GIS技术和空间数据的地物检测Mask R-CNN模型训练方法。
背景技术
Mask R-CNN模型是目前效果最好的图像识别检测深度学习模型之一,不少研究者和技术人员将其应用在遥感影像的地物检测上,即利用Mask R-CNN模型自动在遥感影像上找到目标地物,并标识出来。相关研究成果和应用实践表明Mask R-CNN模型在遥感影像的地物检测方面,有着相比传统方法较大的完整度和准确度的提升。
利用Mask R-CNN模型进行遥感影像地物检测的前提是将大量已标注类别的地物图片样本输入模型进行样本训练,在具体训练实践中,研究者和技术人员需要花费大量的时间和精力去准备训练图片样本集,然后再使用样本集去训练模型。
现在用于地物检测Mask R-CNN模型的训练流程通常是:首先在遥感影像上找到目标地物;然后裁剪得到包含地物的小范围影像图片,在上面勾绘地物范围和标注地物类型,并处理成符合要求的尺寸大小;最后将所有处理完毕的图片文件按照命名、文件层次等要求进行整理,提交给Mask R-CNN模型进行若干轮次的权重训练,得到模型权重。上述方法存在以下不足:
(1)遥感影像具有数据量大、地理范围广的特点,通常包含有数量庞大的地物,为每个地物进行勾绘标注和图片裁剪的样本制作是非常繁重和易出错的工作;
(2)通过文件存储组织的样本图片集占用的存储空间大、缺乏组织管理、迁移使用需要重新拷贝等缺点;
(3)模型训练的样本提供缺乏灵活性,不能根据不同的训练要求场景自由方便地组织不同类型的样本集。
发明内容
针对上述传统Mask R-CNN模型训练方法的不足之处,面向深度学习技术在地学上应用的需要,本发明提出一种基于GIS技术和空间数据的地物检测Mask R-CNN模型训练方法,可实现样本数据集的自动生成和有效管理,能够直接对原始空间数据进行Mask R-CNN模型权重的自动化训练,并提供了对训练结果的管理共享,极大程度地降低了训练过程中的人工工作量,这对于推动Mask R-CNN模型在地物检测方面的深入应用有着非常好的促进作用。
为了解决上述技术问题,本法采用的技术方案是:一种基于GIS技术和空间数据的地物检测Mask R-CNN模型训练框架,包括如下步骤:
第一步、利用包含有目标地物的地物矢量数据,确定每个地物样本的空间范围并存入第一空间数据库,得到样本范围数据集;
第二步、利用所述样本范围数据集和所述地物矢量数据,确定每个样本范围内所包含的地物部分并存入第二空间数据库,得到地物掩膜数据集;
第三步、利用样本范围数据集、地物掩膜数据集和目标地物的遥感影像栅格数据构建地物样本库,所述目标地物的遥感影像栅格数据与所述地物矢量数据位于同一地理范围;
第四步、利用机器学习框架API和编程语言实现Mask R-CNN模型,将其结构实现为可执行程序,将第三步所得的所述地物样本库作为模型训练的样本输入源;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长江水利委员会长江科学院,未经长江水利委员会长江科学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911179390.2/2.html,转载请声明来源钻瓜专利网。