[发明专利]一种基于融合时间注意机制的CT图像自动分类方法在审
申请号: | 202211067591.5 | 申请日: | 2022-09-01 |
公开(公告)号: | CN115409812A | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 薛梦凡;贾士绅;李焘;陈怡达;江浩东;宋怡然;郑建楠 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 融合 时间 注意 机制 ct 图像 自动 分类 方法 | ||
1.一种基于融合时间注意机制的CT图像自动分类方法,其特征在于,该方法具体包括以下步骤:
步骤S1:收集疑似患者相关的医疗影像信息,其中医疗影像信息包括CT图像,并建立CT图像和类别标签的关系;
步骤S2:对采集的原始CT图像进行预处理,得到处理后的数据集,并将预处理之后的CT图像数据集进行训练集和测试集的划分;
步骤S3:构建CT图像的分块输入,并搭建融合时间注意机制的3D CNN分类网络,具体步骤如下:
步骤S31:定义X=[x1,x2,...,xn]为具有n张切片的CT图像,其中xi表示一张2维CT切片;根据切片顺序将CT图像分成s份不相交的3D图像块,则每一个3D图像块视为包含相等数量的连续CT切片的集合,即
步骤S32:构建融合时间注意机制的3D CNN分类网络:
首先构建一个3D CNN的前向传播神经网络,然后将一般架构的全局平均池化层替换为时间注意力网络;
步骤S33:将每一个3D图像块Si分别送入融合时间注意机制的3D CNN分类网络,得到每一个3D图像块的分类预测概率P(c|Si),其中c表示类别;联合所有3D图像块的预测概率,得到整个CT图像的预测值:
步骤S34:定义yc为对于类别c的真实标签,则分类损失计算为:
步骤S4:构建噪声校正网络,通过真实标签加上一个参数未知的噪声信道,利用神经网络学习噪声分布参数,提高模型识别和泛化性能;具体步骤如下:
步骤S41:在进行CT图像分类时,假设分类网络不能观察到每一张切片的正确标签y,而只能获得带有噪声的标签z,噪声标签和真实标签之间具有隐藏分布关系P(zc=i|yc=j,X);将该分布关系定义为噪声转换函数首先计算
其中i,j∈{0,1}为标签值;为非线性映射函数;和为可学习参数,看成是对于类别c,真实标签i到噪声标签j之间的转换得分;
步骤S42:根据噪声转换函数计算噪声标签的估计概率:
步骤S43:根据每一张CT切片估计的噪声概率,计算整个CT图像的噪声分类损失:
步骤S5:计算最终损失:Ltotal=Lcls+λLnoisy,其中λ为损失平衡参数。
2.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:其中,所述的CT影像为经过脱敏技术处理的脱敏数据。
3.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:所述的分割算法为深度学习方法。
4.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:所述的对采集的原始CT图像进行预处理,具体为:
步骤S21:给定一个独立数据集,并利用其预训练一个U-Net分割网络;
步骤S22:应用预训练的U-Net网络对每一例原始CT图像进行分割;CT图像由若干单通道CT切片组成,假定其中一张CT切片为Iori,应用分割算法时,首先得到分割掩膜Imask,随后利用分割掩膜提取出原始CT图像中相应区域,即掩膜所覆盖区域保持不变,其它区域填充为0,记分割后的图像为Iseg;
步骤S23:将Iori和得到的Imask以及Iseg进行叠加组合,原始的单通道CT切片经转换变为三通道图像,所有CT切片均经此操作;
步骤S24:将CT图像重采样为统一规格,具体地:利用分割掩膜Imask计算掩膜区域中心,并以统一体积大小围绕区域中心对CT图像进行裁剪,最终每一幅CT图像大小统一为:h*w*n,其中h和w为切片的长和宽,n为切片的数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211067591.5/1.html,转载请声明来源钻瓜专利网。