[发明专利]集成FDK和深度学习的单视角CT重建方法在审
申请号: | 202110339612.3 | 申请日: | 2021-03-30 |
公开(公告)号: | CN113052936A | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 梁辉;余建桥;孙怡 | 申请(专利权)人: | 大连理工大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06N3/04;G06N3/08 |
代理公司: | 大连理工大学专利中心 21200 | 代理人: | 隋秀文;温福雪 |
地址: | 116024 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 集成 fdk 深度 学习 视角 ct 重建 方法 | ||
1.一种集成FDK和深度学习的单视角CT重建方法,其特征在于,包括以下步骤:
步骤1、数据获取及预处理
数据集包含X射线体正位投影图像及其1°间隔的360°全视角投影图像,以及CT体积;其中X射线体正位投影图像及其对应的全视角投影为第一阶段全视角生成网络训练数据,CT体积为第二阶段CT微调网络的监督数据;在训练中所有使用的数据通过先分别求取均值μ和方差σ,然后进行标准化(x-μ)/σ的方式处理,其中x表示待标准化的训练数据;将数据集划分为训练集和测试集分别用于网络的训练和测试;
步骤2、搭建全视角生成网络
所述全视角生成网络由特征编解码器、残差模块和特征跳跃级联结构组成;特征编解码器由一个连续下采样的卷积神经网络,以及在其最底层获得编码特征后连接的一个连续上采样卷积神经网络组成;残差模块为加深卷积神经网络的组件,通过引入一个短连接将输入特征接到非线性层的输出上,使得网络获得更强拟合高维函数的能力;特征跳跃级联结构是将编解码器中相同尺度的编码特征与解码特征进行级联,实现了特征融合;
首先全视角生成网络对输入的X射线体正位投影图像使用残差模块提取特征,然后将其送入编解码器进行编码,在解码时采用特征跳跃级联结构实现特征融合最终生成全视角投影图像;
步骤3、训练全视角生成网络
使用X射线体正位投影图像作为输入,对应的全视角投影作为监督,使用一致性损失函数作为优化目标,使用梯度下降算法进行深度学习,对所搭建的全视角生成网络进行训练;
步骤4、生成预测的粗CT体积数据
使用步骤3所训练的全视角生成网络,输入数据集中的X射线体正位投影图像,获得预测的全视角投影并对其执行FDK算法;FDK算法通过加权滤波反投影步骤获得CT体积数据;
步骤5、搭建CT微调网络
所述CT微调网络由特征编解码器、残差模块与特征跳跃级联结构组成,其结构如步骤2所述;
首先CT微调网络对输入的粗CT体积使用残差模块提取特征,然后将其送入编解码器进行编码,在解码时采用特征跳跃级联结构实现特征融合实现对粗CT体积的微调,去除粗CT体积中存在的伪影,输出更为精确的CT体积;
步骤6、训练CT微调网络
使用步骤4所得的反投影粗CT作为输入,CT真值作为监督,使用一致性损失函数作为优化目标,使用梯度下降算法进行深度学习,对所搭建的CT微调网络进行训练,完成对粗CT的微调,最终生成清晰无伪影的CT重建图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连理工大学,未经大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110339612.3/1.html,转载请声明来源钻瓜专利网。