[发明专利]一种基于电子快门进行空间调制的阵列式望远镜多谱共相误差探测方法在审
申请号: | 201910857304.2 | 申请日: | 2019-09-11 |
公开(公告)号: | CN110672305A | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 刘柱;董理;彭起;任戈 | 申请(专利权)人: | 中国科学院光电技术研究所 |
主分类号: | G01M11/02 | 分类号: | G01M11/02;G02B23/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610209 *** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 望远镜 点扩散函数 阵列式 望远镜系统 电子快门 空间调制 波长 求解 多谱 光学结构 合成算法 获取系统 快门开关 误差分布 误差探测 系统整体 相位分布 有效抑制 参考 解卷积 光路 光瞳 探测 模糊 | ||
本发明公开了一种基于电子快门进行空间调制的阵列式望远镜多谱共相误差探测方法,首先通过给阵列式望远镜系统的每路子望远镜的缩束光路后面增加电子快门,通过控制快门开关来实现对阵列式望远镜系统的光瞳空间调制;再以一路子望远镜作为参考孔径,依次获取系统的点扩散函数、参考子望远镜的点扩散函数和其他所有子望远镜的点扩散函数,然后对点扩散函数采用反解卷积方法求解出当前波长下的共相误差分布,针对不同的波长分别求解出对应的相位分布,最后利用多谱合成算法计算出系统整体的共相误差。本方法让其光学结构更简单,同时在更宽探测范围以及有效抑制2π模糊的情况下能更快速地得到阵列式望远镜的共相误差。
技术领域
本发明属于阵列式望远镜成像领域,具体涉及一种基于电子快门进行空间调制的阵列式望远镜多谱共相误差探测方法。
背景技术
集光能力和分辨率是望远镜的两个最重要的性能指标,这两个参数的稳步提升都依赖于望远镜口径的不断增大。而望远镜的单口径大小因为制造工艺以及制造材料成本等原因而被限制在十米范围内,在该情况下,光学合成孔径成像技术应运而生,它通过将多路分离的子望远镜系统进行拼接或组合,从而让系统的分辨率达到等效大口径望远镜的分辨率,同时因为该系统具有子望远镜口径小,单镜面容易制造、成本低、体积小、重量轻,易于运输且组装灵活等优点,能解决大单口径望远镜的难题,为人类获取更高分辨率的望远镜系统带来了希望。
共相误差探测技术因为可以让光学合成孔径成像系统实现共相提高分辨率而一直受到相关领域科研机构的广泛研究。国内对该技术的研究开展的较晚,目前对该技术进行研究的机构主要有哈尔滨工业大学,中国科学院长春光学精密机械与物理研究所以及中国科学院光电技术研究所等。目前该技术也正从理论研究逐渐转到实际应用,在实际应用过程中,为了保证望远镜整体系统的成像质量,需要将各子镜间的共相误差均方根值控制在0.1λ以内,但现有的共相误差探测方法大多具有算法复杂,迭代次数多探测区间小以及受2π模糊影响等弊端,因而目前对共相检测技术的研究还具有很大的实际意义。
发明内容
本发明的目的在于提供一种基于电子快门进行空间调制的阵列式望远镜多谱共相误差探测方法,能实现在更宽探测范围的情况下能更快速地得到阵列式望远镜的共相误差,同时有效抑制2π模糊。
本发明采用的技术解决方案是:一种基于电子快门进行空间调制的阵列式望远镜多谱共相误差探测方法,用于阵列式望远镜系统的共相检测,其具体步骤是:
步骤一光路的搭建:
首先在实验平台上搭建起如图2所示的实验光路;所述的实验光路指的是阵列式望远镜系统光路;
首先最左边是多波长光源,从光源出来的光经过扩束系统转变成平行光,出射的大部分平行光通过多片相互平行的45°平面反射镜,被分成N路子光路,每一路的子光路再经过卡塞格林式望远镜进行缩束,缩束后的光路再经过电子快门进行空间调制,再然后由平面反射镜改变其光路传播方向,再经过另一个卡塞克林式望远镜系统,与参考光路的光进行成像;由扩束系统出来的剩下那部分平行光被当作参考光路,直接经过另一个卡塞格林式望远镜进行缩束,再由平面反射镜进行光路的调整,最后通过卡塞格林式望远镜系统与其他N路光进行成像。最后所成的像由面阵探测器接收。
步骤二系统孔径调制:
首先选取波长为λ1的单色光,假设系统总共有N+1个子望远镜,通过添加的电子快门对每个子望远镜进行调制;
然后选取边缘某一路子望远镜作为参考,使用探测器件测得其点扩散函数为PSF1(P);剩下的N路子光路的点扩散函数为PSFN(P),以及系统的点扩散函数PSFN+1(P);
步骤三光学传递函数的求取
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院光电技术研究所,未经中国科学院光电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910857304.2/2.html,转载请声明来源钻瓜专利网。