[发明专利]基于AR2 U-Net神经网络的快速磁共振成像方法有效

专利信息
申请号: 201911077341.8 申请日: 2019-11-06
公开(公告)号: CN111028306B 公开(公告)日: 2023-07-14
发明(设计)人: 吴琛艳;史雄丽;金朝阳 申请(专利权)人: 杭州电子科技大学
主分类号: G06T11/00 分类号: G06T11/00;G06N3/0464;G06N3/084
代理公司: 杭州君度专利代理事务所(特殊普通合伙) 33240 代理人: 杨舟涛
地址: 310018 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 ar2 net 神经网络 快速 磁共振 成像 方法
【权利要求书】:

1.基于AR2 U-Net神经网络的快速磁共振成像方法,其特征在于,该方法具体包括以下步骤:

步骤1:训练数据的准备

训练数据的准备包含2个步骤:全采样数据、填零重建;

步骤1-1:全采样数据

全采样的k空间数据用Sk(xk,yk)表示,其中,xk表示k空间频率编码FE方向的位置,yk表示在相位编码PE方向的位置,经过离散傅立叶反变换得到参考全采样图像Iref(x,y):

Iref(x,y)=IDFT(Sk(xk,yk)) [1]

对k空间数据进行模拟欠采样,在k空间的PE方向,每隔N行采集一行数据,其中N为大于1的整数,实现两边均匀采集,而在k空间PE方向中心区域全采集,概率为全部行数的4%,在FE方向的数据都为全采集,用Su(xk,yk)表示采集到的欠采样k空间数据;用欠采样模板mask与全采样k空间数据矩阵Sk(xk,yk)进行点乘的方式获取模拟欠采样数据,用公式表示为:

Su(xk,yk)=Sk(xk,yk).*mask(xk,yk) [2]

其中,欠采样模板mask矩阵大小和全采样k空间矩阵一样,即模板mask中的每一个点mask(xk,yk)对应矩阵Sk(xk,yk)中的每一个点,若需要采集k空间对应的点,则模板mask矩阵中的值表示为1,反之则表示为0:

步骤1-2:填零重建

对于欠采样数据Su(xk,yk),进行傅里叶反变换,得到填零重建图像,用Iu(x,y)表示:

Iu(x,y)=IDFT(Su(xk,yk)) [4]

到这里,就得到了一对训练数据,即全采样图像数据Iref(x,y)和欠采样图像数据Iu(x,y);

步骤2:基于AR2 U-Net卷积神经网络模型的训练

此网络训练包含2个步骤:AR2 U-Net卷积神经网络的构建和卷积神经网络的训练;

步骤2-1:AR2 U-Net卷积神经网络构建

AR2 U-Net卷积神经网络构建包含3个步骤:U-Net卷积神经网络、递归残差模块、AG模块;

步骤2-1-1:U-Net卷积神经网络

U-Net卷积神经网络卷积层包括卷积、批标准化和激活三步操作;

其中卷积公式如下:

其中,*表示卷积,表示卷积核,其大小为s×kn×kn×mn,s表示第n-1层特征子图数量,kn表示第n层滤波器的大小,mn表示第n层滤波器的数量,表示第n层的偏置量,Cn表示经过卷积后的第n层输出,Cn-1表示第n-1层特征图;

其中批标准化公式如下:

其中BN表示批标准化,μ是批数据均值,T为批数据大小,是标准化输出,γ、β为经验参数,是中间计算值;

其中激活公式如下:

其中,σ为激活函数,表示为激活输出;

步骤2-1-2:递归残差模块

递归残差模块包含2个递归计算和1个残差计算,递归计算由卷积模块组成,每个卷积模块包含卷积、批标准化和激活函数三个单元,递归计算公式如下:

其中,是第n个残差单元的输出,t表示递归次数;

残差计算公式如下:

和分别是第n个残差单元的输入和输出,F表示残差,表示输入的恒等映射,表示残差和恒等映射的和;

步骤2-1-3:AG模块

在U-Net网络解码时,在对编码每个分辨率上的特征与解码中对应特征进行拼接之前,使用了一个AG模块,重新调整了编码的输出特征;AG模块生成一个门控信号,用来控制不同空间位置处特征,即对上采样后的特征图和同层下采样层的上一层的特征图进行了AG模块处理后再合并;

其公式如下:

其中,n表示第几层,i表示像素空间,表示为通道1*1*1卷积计算线性变换,σ1表示为Relu激活函数,σ2表示为Sigmoid激活函数,Convl表示为1*1*1卷积,b和表示为偏置项,θatt表示为参数,最终得到Attention系数

σ1表示为Relu激活函数,其公式如下:

f(x)=max(0,x) [11-1]

其中x表示输入值,f(x)表示最大值输出,max表示最大值;

σ2表示为Sigmoid激活函数,其公式如下:

f(x)=1/(1+e-x) [11-2]

其中x表示输入值,f(x)表示输出;

2-2:网络训练

网络训练包含3个步骤:损失函数、循环条件、循环迭代;

2-2-1:损失函数

选取均方误差函数作为反向传播的损失函数,通过损失函数计算输出层的损失值loss;对于训练数据集T表示批数据大小,上标i表示批数据中第i个图像,i=(1,2…T),损失值用均方误差函数表示:

其中AR2Unet表示AR2 U-Net卷积神经网络,θ表示网络参数;

2-2-2:循环条件

设循环次数为n,计算损失值和损失阈值的差值DIF作为循环的判断条件:

DIF=loss-τ [13]

其中τ表示损失阈值;

2-2-3:循环迭代

对于训练数据集使用Adam算法进行参数优化,流程如下:

其中θt表示优化后的参数,t表示时间步,i表示第几张图,θ表示网络参数,表示参数梯度,AR2Unet表示AR2 U-Net卷积神经网络,Iu(x,y)(i)表示第i张输入图像,Iref(x,y)(i)表示第i张参考全采样图像,β1表示一阶矩估计的指数衰减率,β2表示二阶矩估计的指数衰减率,mt表示gt的一矩阶估计,vt表示gt的二阶矩估计,表示对β1的校正,表示对β2的校正;lr表示学习率,用于控制模型的学习进度,采用多项式衰减方式下降,epoch表示学习轮数,max_epoc表示最大学习轮数,表示指数参数项,∈表示防止分母为0的参数;当参数θ没有收敛时,循环迭代地更新各个部分;即时间步t加1,更新目标函数在该时间步上对参数θ所求的梯度、更新偏差的一阶矩估计和二阶原始矩估计,再计算偏差修正的一阶矩估计和偏差修正的二阶矩估计,然后再用以上计算出来的值更新模型的参数θ;

执行步骤2-2-2,若DIF大于等于0,继续到执行步骤2-2-3,若DIF小于0,或迭代次数达到设定次数n,迭代循环结束;通过网络的反向传播训练网络得到优化的网络参数θ;

步骤3:基于AR2 U-Net卷积神经网络的图像重建;

用已训练好的AR2 U-Net卷积神经网络对欠采样测试数据Itest(x,y)进行重建,重建结果用Ioutput(x,y)表示:

Ioutput(x,y)=AR2Unet(Itest(x,y),θ) [15]

结果Ioutput(x,y)经过离散傅立叶变换得到k空间数据,用Sp(xk,yk)表示,对于k空间中进行过数据采集的点用实际采集到的数据Su(xk,yk)替换Sp(xk,yk)中对应位置的数据,然后利用离散傅立叶反变换(IDFT)进行图像重建,用Irecon(x,y)表示最终的图像重建结果:

Irecon(x,y)=IDFT(Su(xk,yk)+Sp(xk,yk)(1-mask(xk,yk))) [16]。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911077341.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top