[发明专利]一种基于广义反射率模型的高分辨雷达快速成像方法有效
申请号: | 201610185053.4 | 申请日: | 2016-03-29 |
公开(公告)号: | CN105842689B | 公开(公告)日: | 2017-12-01 |
发明(设计)人: | 王龙刚;李廉林 | 申请(专利权)人: | 北京大学 |
主分类号: | G01S13/89 | 分类号: | G01S13/89 |
代理公司: | 北京万象新悦知识产权代理事务所(普通合伙)11360 | 代理人: | 王岩 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 广义 反射率 模型 分辨 雷达 快速 成像 方法 | ||
技术领域
本发明涉及雷达成像技术,具体涉及一种基于广义反射率模型的高分辨雷达快速成像方法。
背景技术
随着经济社会的飞速发展,雷达成像系统如今已被广泛应用于地理科学、医学及其他各种军事与民用场景。由于雷达成像系统采用的是高频电磁波,其具有较强的非金属穿透能力,可以实现对隐藏目标的有效探测。例如:在夜晚,针对敌方军事基地进行遥感成像,可以及时洞察敌军的军事行动;在反恐行动及人质解救过程中,对墙后非合作目标进行高分辨成像,可以为制定营救方法提供有力参考;在飞机场与火车站等公共场所,快速无害地对旅客行李进行安全扫描,可以确保人民群众的生命与财产安全不受侵害。
目前雷达成像模型多采用爆炸元模型和波恩近似模型,这两种模型在一定程度上都忽略了回波信号的幅度衰减,成像目标的各向异性特性,不同频段电磁波与成像目标的作用效果不同,以及目标之间的多次散射作用。由上述分析可知,目前的雷达成像模型与实际成像系统存在较大偏差,因而为高分辨雷达成像的实现设置了无法逾越的障碍。提高建模精度是实现高分辨雷达成像的根本途径。
雷达成像过程是典型的电磁逆问题,其病态性和高计算复杂度一直是科学研究的焦点。目前求解电磁逆问题的方法主要有两类:1、偏移方法:偏移方法是基于爆炸元模型,其假设目标是由一系列孤立的点构成,一般采用后向投影算法或时间反转算法实现。其典型算法如距离多普勒。偏移方法局限于窄频带与小视角的远场成像系统。2、层析方法:基于波恩近似模型,其假设目标是弱散射物质。虽然层析方法的成像精度高于偏移方法,但是层析方法的计算复杂度要远高于偏移方法。
综上分析可知:上述两种求解方法均存在计算量大,仅适用于较低频段与较小目标尺寸的缺点,面对大尺度高分辨率成像问题则两种方法均无能为力。目前雷达成像过程由于受限于上述两种过于简单的成像模型,致使成像结果中大量鬼影的存在,其为后处理过程中目标识别与分类带来了严重的负担。
因此,如何在现有雷达硬件体制条件下,提出更高精确的雷达成像模型并提高雷达成像 效率,实现大尺度高分辨雷达实时成像是本领域技术人员所急需解决的极具挑战性的关键技术难题。
发明内容
为了解决上述关键技术难题,本发明提出了一种基于广义反射率模型的高分辨雷达快速成像方法。
本发明的基于广义反射率模型的高分辨雷达快速成像方法,包括以下步骤:
1)建立雷达成像系统,获取雷达散射数据:
雷达成像系统包括T个发射机,R个接收机,发射信号的频率个数为F,发射机依次向目标成像区域发射信号,并由全部接收机接收回波信号,则当第t个发射机发射信号后,各个接收机处接收到的回波信号依次为yF,t=[yF,t,1;уF,t,2;…уF,t,R],其中,T和R分别为≥2的自然数,t=1,2,…,T,F为≥2的自然数;
2)建立广义反射率模型:
广义反射率模型是建立在传统的波恩近似模型基础上,并包含成像目标的各向异性特性与频率特性,即不同角度发射机下成像目标的反射率不同,不同工作频率下成像目标的反射率不同的特性;
3)数据变换和数据整合:
a)接收机接收频域回波信号;
b)根据雷达系统函数的结构性特征,依据广义反射率模型,将雷达成像系统划分为K个子孔径或子频带,并将目标成像区域划分为B个子成像区域,根据上述划分结果,对频域回波信号进行组合整理,得到关于第b个子成像区域与第k个子孔径或子频带的回波数据函数y(k,b),其中,k=1,2,…,K,b=1,2,…,B,根据自由空间并矢格林函数构造雷达成像系统函数A(k,b),则广义反射率x(k,b)满足方程(1):
y(k,b)=A(k,b)x(k,b)+n(k,b)(1)
其中,n(k,b)表示模型误差,则雷达成像问题转化为求解方程(1)中未知数x(k,b)的逆问题;
c)在方程(1)两边分别乘以系统函数A(k,b)的共轭转置矩阵即对方程(1)进行对偶变换得到方程(2):
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610185053.4/2.html,转载请声明来源钻瓜专利网。