[发明专利]一种于改进SegNet分割网络的淋巴结检测方法在审
申请号: | 201910152279.8 | 申请日: | 2019-02-28 |
公开(公告)号: | CN109949276A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 曹汉强;徐国平 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11;G06K9/62 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智;曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分割 损失函数 交叉熵 网络 淋巴结检测 淋巴结 训练集 正余弦 卷积 空洞 网络优化目标 分辨率降低 图像数据集 后处理 采样图像 对象边缘 分割结果 提取特征 信息丢失 预测误差 正负样本 淋巴 不均衡 测试集 计算量 精细化 下采样 构建 权重 样本 改进 图像 机场 优化 | ||
本发明公开了一种基于改进SegNet分割网络的淋巴结检测方法,包括:将淋巴结图像数据集划分为训练集和测试集;构建基于空洞卷积操作的SegNet分割网络;使用训练集训练SegNet分割网络,以正余弦交叉熵损失函数最小化为网络优化目标函数,优化SegNet分割网络;使用训练好的SegNet分割网络,对待识别淋巴图像中的淋巴结进行识别和分割。本发明使用空洞卷积提取特征,在不增加额外计算量的情况下,增加它的感受野区域,避免了下采样信息丢失,解决了采样图像分辨率降低的问题。通过正余弦交叉熵损失函数对预测误差小的样本给予比交叉熵损失函数更小的权重,解决了训练正负样本不均衡问题。通过马尔科夫随机场对分割结果进行后处理,实现对分割对象边缘部分的进一步精细化。
技术领域
本发明属于图像分割技术领域,更具体地,涉及一种基于改进SegNet分割网络的淋巴结检测方法。
背景技术
传统的医学图像分割技术,可分为三大类:(1)完全基于图像的分割,分割所需信息全部来自图像本身;(2)基于目标模型的方法,这类方法加入了对所需分割对象的先验信息(比如,对象的形状信息)。常见的有基于图(Atlas)的分割方法;(3)混合方法,首先使用基于图像的信息进行初步的分割,然后基于先验性约束信息,实现对目标的进一步分割。基于深度学习技术的语义分割网络属于第一类分割技术,即分割所需的信息全部从图像中提取。由于不需要人工从图像中提取特征,且具有很好的分割结果,因而已成为当前医学图像分割领域的研究热点。
当前,有许多不同的基于深度学习的分割网络,如FCN、SegNet、DeepLab-V3等,在自然图像分割中得到了大量的研究。SegNet是一种基于卷积运算组成的语义分割网络,它由编码单元和解码单元两个部分组成。然而,基于SegNet的淋巴结分割方法存在以下缺陷:没有充分考虑到训练网络中正负样本数量不均衡的问题;未能从多尺度多分辨率的角度去对目标的分割。
发明内容
针对现有技术的缺陷,本发明的目的在于解决现有技术没有充分考虑到训练网络中正负样本数量不均衡、未能从多尺度多分辨率的角度去对目标进行分割的技术问题。
为实现上述目的,第一方面,本发明实施例提供了一种基于改进SegNet分割网络的淋巴结检测方法,该方法包括以下步骤:
S1.将淋巴结图像数据集划分为训练集和测试集;
S2.构建基于空洞卷积操作的SegNet分割网络;
S3.使用训练集训练所述SegNet分割网络,以正余弦交叉熵损失函数最小化为网络优化目标函数,优化所述SegNet分割网络;
S4.使用训练好的SegNet分割网络,对待识别淋巴图像中的淋巴结进行识别和分割。
具体地,所述基于空洞卷积操作的SegNet分割网络,包括特征提取模块和淋巴结分割模块;
所述特征提取模块用于提取淋巴结的多层特征图,输入是淋巴结图像,输出是一系列特征图;
所述淋巴结分割模块用于根据特征提取模块提取到的特征,逐层对淋巴结进行识别和分割,输入是来自特征提取模块中所提取到的一系列特征图,输出是每一个像素点的概率经过阈值化后的二值图像,其和原始淋巴结图像大小相同。
具体地,所述特征提取模块由5个编码单元串联组成,每个编码单元由2*空洞卷积层、1*组归一化层、1*线性修正单元层和1*下采样层串联组成;所述淋巴结分割模块由5个解码单元和1个Softmax层串联组成,每个解码单元由1*上采样层、2*空洞卷积层、1*组归一化层和1*线性修正单元层串联组成。
具体地,所述空洞卷积层用于提取淋巴结图像特征,空洞卷积操作公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910152279.8/2.html,转载请声明来源钻瓜专利网。