[发明专利]多视角光学卫星遥感影像目标识别训练样本集构建方法有效
申请号: | 202011521708.3 | 申请日: | 2020-12-21 |
公开(公告)号: | CN112613397B | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 薛武;赵玲;王鹏;赵龙;张河苇;钟灵毓 | 申请(专利权)人: | 中国人民解放军战略支援部队航天工程大学 |
主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/774;G06T17/05 |
代理公司: | 中国兵器工业集团公司专利中心 11011 | 代理人: | 刘瑞东 |
地址: | 101416*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视角 光学 卫星 遥感 影像 目标 识别 训练 样本 构建 方法 | ||
本发明属于卫星遥感信息智能处理技术领域,提供一种多视角光学卫星影像目标识别深度学习训练样本集构建方法。筛选搜集整理目标区域的三维模型数据和数字线划图信息,并就其比例尺、分辨率、时效性的一致性进行评估分析,筛选一致性较高的数据,如果数据不满足要求,则重新采集数据直至满足需求为止。基于三维场景的目标标注,卫星影像成像全链路仿真,将得到的多视角卫星影像进行标注与增广。本发明解决了现有的遥感影像目标检测数据集不能满足多视角光学卫星影像处理需求的问题,为多视角卫星影像在目标识别中的应用奠定了技术基础。
技术领域
本发明属于卫星遥感信息智能处理技术领域,具体涉及多视角光学卫星影像目标识别深度学习训练样本集构建方法。
背景技术
利用光学卫星遥感影像进行目标识别在国土资源普查、海上活动监测和军事目标搜索等领域具有重要的应用价值。为了提高卫星影像的覆盖能力,新一代光学遥感卫星通过多镜头成像、大角度侧摆等方式可以获取目标多视角影像。准确识别多视角影像中的目标是光学卫星影像应用的重要前提。当前,深度学习技术在计算机视觉目标识别和遥感影像处理中展现了较大的应用潜力,获得了显著优于传统机器学习方法的性能,可以用于处理多视角卫星影像。但深度学习技术依赖于大量人工标注的样本集,需要通过多次迭代训练不断优化模型参数。
多视角光学卫星影像目标识别训练样本集的标注具有较大的难度,主要是因为:(1)卫星遥感影像获取成本较高,其开源程度远低于计算机视觉中的近景影像,利用当前的开源手段获取足够的多视角样本集具有一定的难度;(2)随着卫星平台姿态控制和调整能力的不断提高,新成像方式的卫星不断出现,对于此类卫星,由于没有历史积累数据,难以建立相应的训练样本集。
当前比较具有代表性的开源光学卫星影像目标识别训练样本集主要有DIOR、DOTA、NWPU、VHR-10、HRSC2016等,在目标类型丰富程度、目标尺度变化范围、影像获取季节、地域背景、类间相似性和类内多样性等方面已经比较完善,并且通过多种方式进行了数据增广,在各个领域取得了广泛的应用。但是,以上数据集对于成像角度这一因素的考虑不足,其训练的模型参数用于多视角、大倾斜光学卫星影像目标识别时效果不佳,需要予以改进完善。
发明内容
本发明的目的解决多视角光学卫星影像获取成本较高、已有训练样本集成像多视角因素考虑不足、样本手动标注工作量大的技术问题。
为解决上述技术问题,本发明提出了一种基于地面三维场景数据和成像仿真的多视角光学卫星影像目标识别训练样本集构建方法,具体的技术方案如下:
步骤一、场景三维模型和基础地理信息的获取和筛选
搜集整理目标区域的三维模型数据和数字线划图信息,并就其比例尺、分辨率、时效性的一致性进行评估分析,筛选一致性较高的数据,如果数据不满足要求,则重新采集数据直至满足需求为止;
步骤二:基于三维场景的目标标注
对于数字线划图中已经有所标注的目标可以直接利用其位置信息作为标注信息,其余类型的目标需要人工补充标注;
步骤三:卫星影像成像全链路仿真
将步骤二提供的标注数据作为输入,根据任务需要设定多视角卫星成像的轨道姿态、相机内方位元素、MTF、大气条件、平台震颤参数,通过光线追迹法对成像过程中的每个地面点的光线传播全过程进行建模,实现多视角卫星影像的高精度数值仿真;
步骤四:样本集标注与增广
对步骤三得到的多视角卫星影像数据进行标注与增广,首先将数字线划图等基础地理信息以及人工标注标签中可以利用的标注信息进行转化,即将其地理坐标映射到模拟生成的多视角卫星影像,得到像素坐标,生成带标注的样本集,然后对该集进行增广,得到更为丰富的样本数据集。
和现有技术相比,本发明的有效收益如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军战略支援部队航天工程大学,未经中国人民解放军战略支援部队航天工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011521708.3/2.html,转载请声明来源钻瓜专利网。