[发明专利]基于AR2 U-Net神经网络的快速磁共振成像方法有效
申请号: | 201911077341.8 | 申请日: | 2019-11-06 |
公开(公告)号: | CN111028306B | 公开(公告)日: | 2023-07-14 |
发明(设计)人: | 吴琛艳;史雄丽;金朝阳 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06N3/0464;G06N3/084 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 ar2 net 神经网络 快速 磁共振 成像 方法 | ||
1.基于AR2 U-Net神经网络的快速磁共振成像方法,其特征在于,该方法具体包括以下步骤:
步骤1:训练数据的准备
训练数据的准备包含2个步骤:全采样数据、填零重建;
步骤1-1:全采样数据
全采样的k空间数据用Sk(xk,yk)表示,其中,xk表示k空间频率编码FE方向的位置,yk表示在相位编码PE方向的位置,经过离散傅立叶反变换得到参考全采样图像Iref(x,y):
Iref(x,y)=IDFT(Sk(xk,yk)) [1]
对k空间数据进行模拟欠采样,在k空间的PE方向,每隔N行采集一行数据,其中N为大于1的整数,实现两边均匀采集,而在k空间PE方向中心区域全采集,概率为全部行数的4%,在FE方向的数据都为全采集,用Su(xk,yk)表示采集到的欠采样k空间数据;用欠采样模板mask与全采样k空间数据矩阵Sk(xk,yk)进行点乘的方式获取模拟欠采样数据,用公式表示为:
Su(xk,yk)=Sk(xk,yk).*mask(xk,yk) [2]
其中,欠采样模板mask矩阵大小和全采样k空间矩阵一样,即模板mask中的每一个点mask(xk,yk)对应矩阵Sk(xk,yk)中的每一个点,若需要采集k空间对应的点,则模板mask矩阵中的值表示为1,反之则表示为0:
步骤1-2:填零重建
对于欠采样数据Su(xk,yk),进行傅里叶反变换,得到填零重建图像,用Iu(x,y)表示:
Iu(x,y)=IDFT(Su(xk,yk)) [4]
到这里,就得到了一对训练数据,即全采样图像数据Iref(x,y)和欠采样图像数据Iu(x,y);
步骤2:基于AR2 U-Net卷积神经网络模型的训练
此网络训练包含2个步骤:AR2 U-Net卷积神经网络的构建和卷积神经网络的训练;
步骤2-1:AR2 U-Net卷积神经网络构建
AR2 U-Net卷积神经网络构建包含3个步骤:U-Net卷积神经网络、递归残差模块、AG模块;
步骤2-1-1:U-Net卷积神经网络
U-Net卷积神经网络卷积层包括卷积、批标准化和激活三步操作;
其中卷积公式如下:
其中,*表示卷积,表示卷积核,其大小为s×kn×kn×mn,s表示第n-1层特征子图数量,kn表示第n层滤波器的大小,mn表示第n层滤波器的数量,表示第n层的偏置量,Cn表示经过卷积后的第n层输出,Cn-1表示第n-1层特征图;
其中批标准化公式如下:
其中BN表示批标准化,μ是批数据均值,T为批数据大小,是标准化输出,γ、β为经验参数,是中间计算值;
其中激活公式如下:
其中,σ为激活函数,表示为激活输出;
步骤2-1-2:递归残差模块
递归残差模块包含2个递归计算和1个残差计算,递归计算由卷积模块组成,每个卷积模块包含卷积、批标准化和激活函数三个单元,递归计算公式如下:
其中,是第n个残差单元的输出,t表示递归次数;
残差计算公式如下:
和分别是第n个残差单元的输入和输出,F表示残差,表示输入的恒等映射,表示残差和恒等映射的和;
步骤2-1-3:AG模块
在U-Net网络解码时,在对编码每个分辨率上的特征与解码中对应特征进行拼接之前,使用了一个AG模块,重新调整了编码的输出特征;AG模块生成一个门控信号,用来控制不同空间位置处特征,即对上采样后的特征图和同层下采样层的上一层的特征图进行了AG模块处理后再合并;
其公式如下:
其中,n表示第几层,i表示像素空间,表示为通道1*1*1卷积计算线性变换,σ1表示为Relu激活函数,σ2表示为Sigmoid激活函数,Convl表示为1*1*1卷积,b。和表示为偏置项,θatt表示为参数,最终得到Attention系数
σ1表示为Relu激活函数,其公式如下:
f(x)=max(0,x) [11-1]
其中x表示输入值,f(x)表示最大值输出,max表示最大值;
σ2表示为Sigmoid激活函数,其公式如下:
f(x)=1/(1+e-x) [11-2]
其中x表示输入值,f(x)表示输出;
2-2:网络训练
网络训练包含3个步骤:损失函数、循环条件、循环迭代;
2-2-1:损失函数
选取均方误差函数作为反向传播的损失函数,通过损失函数计算输出层的损失值loss;对于训练数据集T表示批数据大小,上标i表示批数据中第i个图像,i=(1,2…T),损失值用均方误差函数表示:
其中AR2Unet表示AR2 U-Net卷积神经网络,θ表示网络参数;
2-2-2:循环条件
设循环次数为n,计算损失值和损失阈值的差值DIF作为循环的判断条件:
DIF=loss-τ [13]
其中τ表示损失阈值;
2-2-3:循环迭代
对于训练数据集使用Adam算法进行参数优化,流程如下:
其中θt表示优化后的参数,t表示时间步,i表示第几张图,θ表示网络参数,表示参数梯度,AR2Unet表示AR2 U-Net卷积神经网络,Iu(x,y)(i)表示第i张输入图像,Iref(x,y)(i)表示第i张参考全采样图像,β1表示一阶矩估计的指数衰减率,β2表示二阶矩估计的指数衰减率,mt表示gt的一矩阶估计,vt表示gt的二阶矩估计,表示对β1的校正,表示对β2的校正;lr表示学习率,用于控制模型的学习进度,采用多项式衰减方式下降,epoch表示学习轮数,max_epoc表示最大学习轮数,表示指数参数项,∈表示防止分母为0的参数;当参数θ没有收敛时,循环迭代地更新各个部分;即时间步t加1,更新目标函数在该时间步上对参数θ所求的梯度、更新偏差的一阶矩估计和二阶原始矩估计,再计算偏差修正的一阶矩估计和偏差修正的二阶矩估计,然后再用以上计算出来的值更新模型的参数θ;
执行步骤2-2-2,若DIF大于等于0,继续到执行步骤2-2-3,若DIF小于0,或迭代次数达到设定次数n,迭代循环结束;通过网络的反向传播训练网络得到优化的网络参数θ;
步骤3:基于AR2 U-Net卷积神经网络的图像重建;
用已训练好的AR2 U-Net卷积神经网络对欠采样测试数据Itest(x,y)进行重建,重建结果用Ioutput(x,y)表示:
Ioutput(x,y)=AR2Unet(Itest(x,y),θ) [15]
结果Ioutput(x,y)经过离散傅立叶变换得到k空间数据,用Sp(xk,yk)表示,对于k空间中进行过数据采集的点用实际采集到的数据Su(xk,yk)替换Sp(xk,yk)中对应位置的数据,然后利用离散傅立叶反变换(IDFT)进行图像重建,用Irecon(x,y)表示最终的图像重建结果:
Irecon(x,y)=IDFT(Su(xk,yk)+Sp(xk,yk)(1-mask(xk,yk))) [16]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911077341.8/1.html,转载请声明来源钻瓜专利网。