[发明专利]一种原发灶转移辅助诊断系统有效
申请号: | 201911218598.0 | 申请日: | 2019-11-28 |
公开(公告)号: | CN110992338B | 公开(公告)日: | 2022-04-01 |
发明(设计)人: | 郑然;张兰兰;金海 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 原发灶 转移 辅助 诊断 系统 | ||
1.一种原发灶转移辅助诊断系统,其特征在于,该系统包括:
数据存储模块,用于存储病人的病变部位CT图像序列和对应的PET图像序列;
图像预处理模块,用于对病人的每张病变部位CT图像和对应的PET图像进行融合,得到病人的PET/CT融合图像序列;所述图像预处理模块包括:
像素归一化模块,用于对每个训练样本的原始CT图像、PET图像、原始标签图像的像素间距分别归一化为1mm*1mm*1mm;
HU值转换模块,用于对病人的每张病变部位CT图像和对应的PET图像进行HU值转换,转换为8位灰度值;
图像融合模块,用于对病人的HU值转换后每张病变部位CT图像和对应的PET图像进行基于小波变换的图像融合,得到PET/CT融合图像;
2D图像尺寸统一模块,用于对经过图像融合模块输出的每个PET/CT融合图像缩放至2DVGG-Unet检测模型要求的输入尺寸;对每个训练样本的对应标签图像缩放至2D VGG-Unet检测模型要求的输入尺寸,由2D PET/CT融合图像和标签图像共同构成2D图像数据集;
3D图像尺寸统一模块,用于统一各训练样本的病变部位原发灶3D尺寸,对每个训练样本对应的PET/CT融合图像序列,截取该3D尺寸的3D病变部位原发灶,得到适合于3D CNN分类模型输入的数据集;
2D病变部位原发灶分割模块,用于基于训练好的2D VGG-Unet检测模型,对每张待识别病人的2D PET/CT融合图像进行分割,得到待识别病人的2D病变部位原发灶分割图像序列;
3D候选原发灶构建模块,用于根据待识别病人的2D病变部位原发灶分割图像序列,确定待识别病人的3D候选原发灶的3D重心坐标,根据该坐标从待识别病人的3D PET/CT融合图像序列上截取3D候选病变部位原发灶;所述3D候选原发灶构建模块包括:
ROI增强模块,用于对待识别病人的2D病变部位原发灶分割图像序列进行腐蚀操作,得到若干个3D连通区域;
合并模块,用于计算每个3D连通区域的3D重心坐标,合并3D欧式距离小于2cm的所有3D连通区域,作为待识别病人的3D候选原发灶,并确定该区域的3D重心坐标;
截取模块,用于根据该3D重心坐标和训练过程确定的病变部位原发灶3D尺寸,在待识别病人的3D PET/CT融合图像序列上截取3D候选病变部位原发灶;
3D病变部位原发灶转移分类模块,用于基于训练好的3D CNN分类模型,对待识别病人的3D候选病变部位原发灶进行二分类,得到待识别病人的病变部位原发灶是否转移的诊断结果。
2.如权利要求1所述的系统,其特征在于,所述3D图像尺寸统一模块通过统计训练样本集中每个训练样本的所有标签图像中病变部位原发灶的面积和直径,确定适用于整个训练样本集的病变部位原发灶3D尺寸。
3.如权利要求1所述的系统,其特征在于,所述2D VGG-Unet检测模型包括依次串联的:
编码器,其以VGG16网络为基础,保留其输入层和全部卷积层,去除最后三个全连接层,其包含由池化层分割的5层编码层,每层编码层对输入的图像进行特征提取,前4层的编码层的权重由ImageNet预训练的VGG16模型迁移得到;
解码器,包含5层解码层,每层解码层与编码层一一对应,用于对该编码层输出的图像进行还原,每层解码层由1个3*3卷积层、1个4*4反卷积层串联构成,每层解码层实现一次上采样,上采样的输出再与对应编码器部分通道数相同的输出进行拼接;
分割模块,包含2个3*3的卷积层,用于完成整个图像的还原,输出一张分割结果图像。
4.如权利要求1所述的系统,其特征在于,所述3D CNN分类模型包括依次串联的1个5*5*5的卷积层、4个连续的11*11*11的卷积层、1个池化层、1个3*3*3的卷积层,1个2*2*1的卷积层、1个5*5*2的卷积层、1个池化层、4个连续的3*3*3的卷积层、2个连续的全连接层,每个卷积层后接Relu函数。
5.如权利要求1所述的系统,其特征在于,该系统还包括:数据集离线扩增模块,用于将2D PET/CT融合图像和标签图像通过旋转、翻转、网格变换方式扩增,将3D病变部位原发灶图像通过3D旋转、翻转、缩放的方式扩增。
6.如权利要求1所述的系统,其特征在于,训练2D VGG-Unet检测模型时,采用的损失函数计算公式如下:
Loss=(1-jdweight)*BCEloss-jdweight*Jaccard
其中,jdweight表示Jaccard在损失Loss中所占权重,BCEloss表示病变部位图像中原发灶和非原发灶的二值交叉熵损失,Jaccard表示预测的病变部位原发灶和真实的病变部位原发灶的交并比。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911218598.0/1.html,转载请声明来源钻瓜专利网。