[发明专利]一种基于不确定性的半监督OCT图像视网膜分割方法在审
申请号: | 202211128245.3 | 申请日: | 2022-09-16 |
公开(公告)号: | CN115512108A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 刘现文;王亚奇;贾刚勇;顾人舒 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/774;G06V10/82;G06V10/32;G06V10/30;G06T7/194 |
代理公司: | 杭州奥创知识产权代理有限公司 33272 | 代理人: | 王佳健 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 不确定性 监督 oct 图像 视网膜 分割 方法 | ||
本发明公开了一种基于不确定性的半监督OCT图像视网膜分割方法。对于有标签数据,通过第一网络得到的特征图,经过提取得到注意力图,对输入图片进行注意力增强,然后再次送入第一网络和第二网络中进行训练;对于无标签数据,为了减小伪标签的错误,采用第一网络和第二网络的交叉监督,并辅以不确定性指导;通过第一网络得到多尺度的特征与不确定性图,一同送入不确定性修复模块,得到修复后的伪标签再去监督第一网络的输出,计算加权不确定性修复损失;每轮迭代之后在测试集上测试结果,当前Dice系数高于上一轮迭代的结果时,保存模型参数。本发明很好的提高模型的泛化性、解决伪标签误导的问题,并且提高伪标签的边界分割精度。
技术领域
本发明属于图像分割领域,具体涉及一种基于不确定性的半监督OCT图像视网膜分割方法。
背景技术
光学相干断层扫描OCT是一种无创、实时和微分辨率的非接触式成像技术,被普遍应用于视网膜的高分辨率成像。许多眼科和其他疾病(如近视眼、糖尿病视网膜病变和AMD)可引起视网膜生理结构的变化,通过自动视网膜分割技术从OCT图像中分割出视网膜,可以更好的观察相关区域的特征,辅助确定视网膜生理结构的变化的原因。因此,对于OCT图像中的视网膜进行自动分割,具有重要的应用价值和研究价值。
传统的视网膜分割方法大多是基于数学模型的方法和基于监督学习的方法,前者的约束条件非常复杂,并且多次迭代很耗时,后者随着近些年来深度学习技术的兴起,卷积神经网络已被证明具有强大的图像分割能力。但尽管如此,视网膜自动分割技术的发展仍不成熟,主要是由于存在以下的缺陷和不足:(1)视网膜边界容易受病变影响,比如出现漏液时视网膜结构会出现断层等现象;(2)视网膜OCT图像易受散斑噪声影响,图像分辨率模糊,还受采集的机器所影响,难以准确分割图像;(3)视网膜OCT图像数据稀缺且人工标注成本高。
发明内容
本发明针对现有技术的不足,提出一种基于不确定性的半监督OCT图像视网膜分割方法。
为实现上述目的,本发明包括以下步骤:
S1、将OCT图像数据集分为训练集和测试集,其中训练集由10%的有标签图像和90%无标签图像组成。训练集和测试集图像,通过裁剪、调整比例以及统一数据尺寸进行数据预处理,然后将训练集输入模型进行训练。
S2、对于有标签数据,通过第一网络得到的特征图,经过提取得到注意力图,对输入图片进行注意力增强,然后再次送入第一网络和第二网络中进行训练。
S3、对于无标签数据,为了减小伪标签的错误,采用第一网络和第二网络的交叉监督,并辅以不确定性指导。
S4、通过第一网络得到多尺度的特征与不确定性图,一同送入不确定性修复模块,得到修复后的伪标签再去监督第一网络的输出,计算加权不确定性修复损失。
S5、每轮迭代之后在测试集上测试结果,得到分割后的OCT图像,测试指标为Dice系数,当前Dice系数高于上一轮迭代的结果时。
其中所述第一网络为U-net网络模型,第二网络为Swin-Unet网络模型。
进一步地,上述的基于不确定性引导和修复的半监督OCT图像视网膜分割方法,其中:所述步骤S2具体包括以下步骤:
S21:将有标签数据输入第一网络和第二网络,然后与对应的标签用Dice函数计算第一监督损失。
S22:选取经过第一网络四次下采样之后得到的特征图,采用降维操作生成多个注意力图,然后随机选取一个注意力图。
S23:在步骤S22选取的注意力图上,随机生成多个正方形的黑色遮挡区域,并叠加在原图上,得到增强后的图片。
S24:在经S23所得到的增强后的图片输入到第一网络和第二网络,然后与对应的标签利用Dice函数计算第二监督损失,综合第一监督损失和第二监督损失,得到总的有监督损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211128245.3/2.html,转载请声明来源钻瓜专利网。