[发明专利]一种基于全卷积神经网络复合特征的遥感影像云判方法有效
申请号: | 201810522781.9 | 申请日: | 2018-05-28 |
公开(公告)号: | CN108932474B | 公开(公告)日: | 2022-03-15 |
发明(设计)人: | 史振威;吴犀;邹征夏;马小锋;李汶原 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/82;G06N3/04 |
代理公司: | 北京慧泉知识产权代理有限公司 11232 | 代理人: | 王顺荣;唐爱华 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 复合 特征 遥感 影像 方法 | ||
本发明一种全卷积神经网络复合特征的遥感影像云判方法,它有五大步骤。步骤一:计算机读取数据;步骤二:样本扩充;步骤三:构造全卷积神经网络并提取复合特征;步骤四:训练网络;步骤五:自动云判,得到最终的结果图。本发明克服了现有技术的不足,很好地解决了遥感影像自动云判问题,自动化程度和判别精度均较高,能够大幅度降低人工成本,因此该方法可以应用于遥感影像的自动云判中,具有广阔的应用前景和价值。
(一)技术领域:
本发明涉及一种基于全卷积神经网络复合特征的遥感影像云判方法,属于可见光遥感影像场景自动标注技术领域。
(二)背景技术:
近年来,随着我国工业技术的快速发展,我国的成像卫星数量越来越多,尤其是高分辨率成像卫星。以“高分专项”系列卫星为例,高分一号、高分二号和高分六号都是可见光高分辨率成像卫星。这些可见光高分辨率成像卫星摄制的空间影像数据,为我国的国土资源部、环境保护部、农业部和其它有关部门和领域提供了广泛的应用服务,极大地提高了我国空间数据自给率,并扩大了空间信息产业链,逐步构建了“遥感大数据”的环境。
尽管我国的遥感数据在逐渐增加,但可以利用的遥感数据仍然有限,尤其是对于可见光遥感影像。据世界云计划项目统计,全球每年云覆盖率达到67%以上,导致大量的遥感图像出现云覆盖问题,使得几近50%的遥感影像几乎不具备任何可用信息或可用信息较少。这些遥感影像很难再进行后续信息提取,可能甚至需要被滤除,以提高后续信息处理系统的效率。故对于可见光遥感影像,需要进行云判,以确定遥感影像中的云量和云覆盖位置。
然而,通过人工进行卫星影像的云判成本巨大,再进一步通过对影像中的云覆盖区域进行人工标注,以获得该景影像的云掩膜,更是需要投入大量的人力物力。故需要针对高分卫星研发自动云判的方法,确定云量,并获得该景影像的高质量掩膜。
当前我国主要的自动云检测方法主要为多通道阈值法和基于图像特征的云检测方法,这些方法主要针对气象卫星或者其它低分辨率卫星,大都着重于云量覆盖检测,且仅适用于少量遥感卫星影像,鲁棒性和泛化性能较差。近年来,计算机视觉领域通过应用深度卷积神经网络逐渐实现了自动提取准确性和鲁棒性较高的物体特征。在视觉领域中的普通影像分类,目标检测等应用中取得了较好的结果。在场景自动标注领域中,则是将深度卷积神经网络拓展为全卷积神经网络对影像进行标注。其端到端的特性(输入和输出均为影像)为标注任务提供了巨大的便利。但是,在遥感领域,直接应用计算机视觉中的方法是不妥的。一方面,遥感影像幅宽大,其包含的信息量较视觉影像更为复杂。对于云判应用而言,遥感影像中的云种类繁多,亮暗程度、尺度、形状等变化多样,且非常容易与沙漠、戈壁、雪地等高亮地物混淆。直接应用传统的全卷积神经网络,其提取的特征表达能力则会有所不足,无法满足自动云判的需求。另一方面,全卷积神经网络是由卷积神经网络而来,其优点在于逐层高度抽象的特征所具有的表达能力能使图像分类识别准确率提高,但应用在分割领域中,却只能在逐层抽象的过程中,舍弃小尺度的物体表达能力。对于云判应用而言,通常需要检测出小尺度的云,直接应用传统的全卷积神经网络进行云判,则会在这一部分影像失效。此外,采用全卷积神经网络进行云判的研究较少。
本发明针对上述背景,提出了一种基于全卷积神经网络复合特征的遥感影像云判方法,自动化程度高,运行速度快,鲁棒性好,并对各种尺度的含云遥感影像判别效果好。
(三)发明内容:
本发明的目的是提供一种基于全卷积神经网络复合特征的遥感影像云判方法。该方法构建了一个利用了全卷积神经网络提取的特征构造更加鲁棒的复合特征,并利用该特征对遥感影像进行自动云判。
本发明是一种基于全卷积神经网络复合特征的遥感影像云判方法。该方法的具体步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810522781.9/2.html,转载请声明来源钻瓜专利网。