[发明专利]一种基于深度学习模型的脉冲式强度关联三维成像方法有效
申请号: | 201810240295.8 | 申请日: | 2018-03-22 |
公开(公告)号: | CN108447113B | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 郝群;曹杰;张开宇;张芳华;王营博;冯永超 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T15/00 | 分类号: | G06T15/00;G06N3/08 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 毛燕 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 模型 脉冲 强度 关联 三维 成像 方法 | ||
本发明涉及一种三维成像方法,尤其涉及一种基于深度学习模型的脉冲式强度关联三维成像方法,属于光电成像技术领域。本发明的目的是为了解决现有脉冲式强度关联三维成像方法在以强湍流为代表的强噪声环境下工作时,成像速率慢,成像质量不佳的问题。本发明利用深度学习模型,相比传统和结合压缩感知的关联成像方法,可实现在少量关联次数下的高质量低噪声重建图像输出,抗噪声能力和鲁棒性强。
技术领域
本发明涉及一种三维成像方法,尤其涉及一种基于深度学习模型的脉冲式强度关联三维成像方法,属于光电成像技术领域。
背景技术
作为间接统计成像方法的典型代表,脉冲式强度关联成像技术,因其系统成本低、分辨率高、抗干扰能力强的特点,在生物医学成像、光学图像重建、遥感测量等领域得到广泛的关注和研究。该技术利用时间切片原理,通过多次关联时间切片位置下参考臂获取的光源二维光强信息及探测臂获取的经目标表面反射或透射调制的总光强信息,重建出含有目标表面反射率分布或透射率分布信息的三维图像。然而受限于统计成像的基本原理,该技术在实际噪声环境下需要大量的关联次数方可实现成像,并且其成像速率低且重建图像的质量也普遍偏低。针对这一问题,学者近年来多采用压缩感知技术与脉冲式强度关联成像技术结合的方式,利用信号的稀疏性特性,高质量地重建出含有目标表面信息的三维图像。这种方法虽然可以大幅提高弱噪声环境下的重建图像质量,降低关联次数,但在以强湍流为代表的强噪声环境下,仍无法大幅提高重建图像质量。
发明内容
本发明的目的是为了解决现有脉冲式强度关联三维成像方法在以强湍流为代表的强噪声环境下工作时,成像速率慢,成像质量不佳的问题,提供一种基于深度学习模型的脉冲式强度关联三维成像方法,该方法能够有效提高成像速率的同时,实现高质量图像重建。
本发明的目的是通过下述技术方案实现的。
一种基于深度学习模型的脉冲式强度关联三维成像方法,具体步骤如下:
步骤一、在探测臂上获取经目标表面反射或透射调制的总光强信息,在参考臂上获取系统所用同一光源的二维光强分布信息,进行M组N次数据信息记录。
步骤二、利用脉冲式强度关联算法,对步骤一采集到的M组N次的总光强信息和光源的二维光强分布信息进行运算,经过M*N次关联迭代运算后,重建出含有大量噪声以及目标表面反射率分布或透射率分布信息的M组图像。
步骤三、对步骤二中重建的M组图像构建原始重建图像的训练样本张量和原始重建图像的测试样本张量;并构建与原始重建图像的训练样本张量对应的目标真值图像训练张量。其中,目标真值图像训练张量与原始重建图像的训练样本张量一一对应;
在步骤二重建的M组图像中,随机抽取p%的样本作为原始重建图像的训练样本,余下的(1-p)%样本作为原始重建图像的测试样本。每幅图像按照像素排列顺序压成一维信号,分别构建原始重建图像的训练样本张量和原始重建图像的测试样本张量。
原始重建图像的训练样本张量、原始重建图像的测试样本张量和目标真值图像训练张量的张量形式为[样本数量,一维信号,通道数],其中样本数量表示图像数量;一维信号表示每幅图像按照像素排列顺序构成的一维信号;通道数表示图像通道的数量。例如:RGB图像通道的数量为3,灰度图通道的数量为1。
步骤四、搭建深度学习模型中的深度自编码网络结构,并初始化网络结构的参数。
深度自编码网络结构,包含编码结构和解码结构,其中编码结构与解码结构呈对偶形式。编码结构首先将输入数据升维,然后随着深度的增加对升维后的数据进行维度压缩,以达到去除噪声的目的,得到压缩后的数据。解码结构与编码结构对称,将压缩后的数据升维,然后降维,实现解码重建,达到输出原图像的目的。深度自编码网络结构使用全连接的方式构建,使用均值为m、方差为n的均匀分布初始化网络参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810240295.8/2.html,转载请声明来源钻瓜专利网。