[发明专利]一种基于深度学习的非视域目标信号辨识方法有效
申请号: | 202111207789.4 | 申请日: | 2021-10-18 |
公开(公告)号: | CN113919398B | 公开(公告)日: | 2023-06-16 |
发明(设计)人: | 夏诗烨;刘雅卿;罗一涵;李泰霖;谢宗良;徐少雄;马浩统;曹雷 | 申请(专利权)人: | 中国科学院光电技术研究所 |
主分类号: | G06F18/213 | 分类号: | G06F18/213;G06N20/00;G06V10/774 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 江亚平 |
地址: | 610209 *** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 视域 目标 信号 辨识 方法 | ||
本发明提供了一种基于深度学习的非视域目标信号辨识方法。针对非视域目标探测时噪声信号过大、目标个数未知而对目标信号的辨识造成困难的问题,将多帧光子飞行时间统计图拼接成二维图像,再构建卷积神经网络并进行训练,对目标信号进行辨识。本发明与现有技术的有益效果在于:本发明方法利用深度学习实现目标信号特征的自动选择;无需提前确定目标个数,也能辨识出每个目标的信号;即使存在持续或间隙性的噪声干扰,也能正确辨识目标信号,且辨识速度几乎不受目标个数影响;相比于概率密度法,计算量更小,速度更快,有利于后续跟踪处理。
技术领域
本发明属于光电探测领域,具体涉及一种基于深度学习的非视域目标信号辨识方法。
背景技术
非视域目标探测技术,即对隐藏于遮挡物后,相机无法直接探测的目标进行成像、重构、定位或跟踪,在抢险、救援和自动驾驶等领域拥有广阔的应用前景,已成为国内外研究的热点。传统的光学探测手段,都需要目标在探测器的视线范围内才能进行成像和跟踪。一旦目标与探测器之间存在遮挡物,比如人在拐角或墙后、飞机在云层中等情况,传统光学手段就无法探测。
该技术通过主动发射激光脉冲并测量散射到目标上的回波,来获取主动发射光子的飞行时间,并得出光子的飞行距离,从而进行三维重建或定位跟踪。由于目标被遮挡,激光只能发射到目标附近的中介面,并散射至目标。在目标将激光再次散射回中介面之后,再通过光学镜头收集回波光子,来实现对目标的探测。由于激光脉冲从发射到接收经过了多次散射,回波能量衰减可达到十几个数量级。
由于回波能量的衰减,在探测器接收到的回波信号中,目标信号往往并不一定具备最大能量,也就是说,存在强度大于目标信号的噪声,从而对目标信号的辨识以及目标个数的确认造成严重影响,所以必须实现在噪声的干扰下,依旧可以正确辨识多目标信号且稳定定位的功能。
在目前的文献中,对目标信号的辨识大多使用阈值法。比如,直接选用信号中超过一定阈值的部分作为目标信号。显然,这种方法容易受到较大噪声的干扰,而且在多目标信号辨识的时候,无法保证辨识的目标个数正确。也有文献采用概率密度法结合所有探测器的信号形成概率密度函数,认为概率最大处是目标位置。但是这种方法计算量大,且容易受到随机强噪声的影响,使计算出的目标位置产生较大偏移;同时,此方法在多目标信号辨识中需要提前确定目标个数。总而言之,现有的方法尚未完全解决强噪声的影响,且无法在未知目标数的前提下进行多目标信号辨识,从而对非视域多目标探测技术的实用化造成了障碍。
发明内容
本发明要解决的技术问题为:针对非视域目标探测中存在强噪声而对多目标信号的辨识造成影响的问题,提供一种基于深度学习的目标信号辨识方法。
本发明的采用的技术方案为:本发明一种基于深度学习的非视域目标信号辨识方法,将多帧光子飞行时间统计图拼接成二维图像,再构建卷积神经网络并进行训练,对目标信号进行辨识,具体实现步骤为:
步骤1、对光子飞行时间统计图进行预处理,以每个探测器接收到中介面回波信号的时间来修正光子飞行时间统计图中的时间零点,并抑制中介面回波和去噪;
步骤2、将多帧光子飞行时间统计图拼接成二维图像,并标记图像中的目标信号作为标签,得到训练数据集和验证数据集;
步骤3、构建深度学习模型,利用上述训练数据集和验证数据集训练该深度学习模型,得到训练后的深度学习模型;
步骤4、基于上述训练后的深度学习模型,对目标回波信号进行辨识与提取;
步骤5、用上述得到的目标信号点进行后续定位处理。
进一步地,所述步骤1中对光子飞行时间统计图进行预处理的实现方法为:以每个探测器接收到中介面回波信号的时间来修正光子飞行时间统计图中的时间零点,并抑制中介面回波和去噪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院光电技术研究所,未经中国科学院光电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111207789.4/2.html,转载请声明来源钻瓜专利网。