[发明专利]一种基于融合时间注意机制的CT图像自动分类方法在审
申请号: | 202211067591.5 | 申请日: | 2022-09-01 |
公开(公告)号: | CN115409812A | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 薛梦凡;贾士绅;李焘;陈怡达;江浩东;宋怡然;郑建楠 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 融合 时间 注意 机制 ct 图像 自动 分类 方法 | ||
本发明公开了一种基于融合时间注意机制的CT图像自动分类方法,首先构建基于时间注意机制的3D CNN分类网络,该网络利用时间注意力层自动学习到CT图像中的空间和时间信息,以更精确地进行分类嵌入的表示,提高分类准确度;随后构建一种噪声校正网络,该网络通过给真实标签加上一个参数未知的噪声信道,并利用神经网络学习噪声分布参数,可以有效识别出分类干扰噪声,从而缓解数据分布的多中心效应,在辅助提高网络分类精度的同时,使得模型具有更高的泛化性和鲁棒性,也具有更高的推广性。
技术领域
本发明涉及医疗图像处理技术领域以及计算机视觉、深度学习等领域,更具体的,涉及一种基于CT图像的疾病分类方法。
背景技术
计算机断层扫描(CT)是放射科医生和影像学专家用来评估病变的一种重要的影像方式。在临床诊断实践中,医生和专家基于自己的医学知识和日常的诊断经验对给定的CT图像进行判读从而给出病变分析结果,然而诊断的准确性会受限于不同医生和专家的临床经验和知识水平之间的差异。并且对于大量CT图片的读取,需要医生投入大量的时间,高强度的工作可能使医生精神状态受到影响从而产生误判等情况。近年来,随着计算机技术的不断发展,人工智能技术在医疗领域的发展潜力已经不容忽视,特别是深度学习在计算机视觉方面取得了突破性进展,在图像分类,图像定位与检测,以及医疗图像分割等领域得到了大量的应用。但目前常用的医疗图像诊断方法大多是基于有监督学习的,其需要大量的有标签数据。但实际上在医疗领域,可能只有很少的有标记样本可供使用,这是因为获得带有完全病灶区域标注的数据需要专业医生大量的时间和精力,这使得获得具有完全病灶标注的医学图像代价极高。
目前也有学者使用未经病灶标注的数据集进行分类研究,但是,在很多研究中,由于慢性疾病CT图像中病变和其周边背景的高度相似性,使得很多非病变特征会被误判为病变,导致了分类模型的准确率低下。同时,大多数的模型仅在特定的数据集上具有不错的性能,一旦应用到不同的数据集,其性能往往不尽人意,即模型的泛化性能很差。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,提出了一种基于融合时间注意机制的3D CNN的CT图像自动分类方法。
为实现本发明的上述目的,本发明方法采用的技术方案包括以下步骤:
步骤S1:收集疑似患者相关的医疗影像信息,其中医疗影像信息包括CT图像,并建立CT图像和类别标签的关系;
步骤S2:对采集的原始CT图像进行预处理,得到处理后的数据集,并将预处理之后的CT图像数据集进行训练集和测试集的划分;
步骤S3:构建CT图像的分块输入,并搭建融合时间注意机制的3D CNN分类网络,具体步骤如下:
步骤S31:定义X=[x1,x2,...,xn]为具有n张切片的CT图像,其中xi表示一张2维CT切片。根据切片顺序将CT图像分成s份不相交的3D图像块,则每一个3D图像块视为包含相等数量的连续CT切片的集合,即
步骤S32:构建融合时间注意机制的3D CNN分类网络:
首先构建一个3D CNN的前向传播神经网络,将一般架构的全局平均池化层替换为时间注意力网络,这样利用时间注意力的时间池化作用,可以汇集CT扫描切片之间的相关性,并正确学习到CT图像包含的时间特征,有助于分类。同时该网络利用3D卷积实现对CT图像的识别,仅需知道整个CT图像的标签,而无需CT切片的标注。
步骤S33:将每一个3D图像块Si分别送入融合时间注意机制的3D CNN分类网络,得到每一个3D图像块的分类预测概率P(c|Si),其中c表示类别。联合所有3D图像块的预测概率,得到整个CT图像的预测值:
步骤S34:定义yc为对于类别c的真实标签,则分类损失计算为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211067591.5/2.html,转载请声明来源钻瓜专利网。