[发明专利]一种基于对抗学习的多光谱眼底图像分析方法及系统有效
申请号: | 202011006571.8 | 申请日: | 2020-09-23 |
公开(公告)号: | CN112435281B | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 郑元杰;隋晓丹;姜岩芸;贾伟宽;赵艳娜;牛屹 | 申请(专利权)人: | 山东师范大学 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/10 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 董雪 |
地址: | 250014 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对抗 学习 光谱 眼底 图像 分析 方法 系统 | ||
1.一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,包括:
获取多光谱眼底图像,包括有血管标签图像和无血管标签图像;
将多光谱眼底图像输入至训练好的眼底图像分析模型中,获取多光谱眼底图像的配准结果;
其中,眼底图像分析模型包括眼底图像配准模型和视网膜血管分割模型,训练时,眼底图像配准模型和视网膜血管分割模型分别采用有血管标签图像进行单独训练;眼底图像配准模型和视网膜血管分割模型根据无血管标签图像进行对抗学习,具体过程为:
无血管标签图像输入视网膜血管分割模型中获得无血管标签图像的预测标签,通过预测标签对眼底图像配准模型进行训练;
眼底图像配准模型对预测标签进行配准获得形变后的血管标签,所述形变后的血管标签重新训练视网膜血管分割模型。
2.如权利要求1所述的一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,通过视网膜血管分割模型获得多光谱眼底图像对应的血管图,眼底图像配准模型根据血管图对多光谱眼底图像进行配准。
3.如权利要求1所述的一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,眼底图像配准模型基于U-Net网络,通过血管标签计算损失并回传训练获得,眼底图像配准模型的损失函数为弱监督损失函数;
视网膜血管分割模型基于U-Net网络,采用血管标签计算损失并回传训练获得,视网膜血管分割模型的损失函数为全监督损失函数。
4.如权利要求3所述的一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,眼底图像配准模型的损失函数包括负荷正则化约束损失函数和相似度损失函数。
5.如权利要求3所述的一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,眼底图像配准模型使用的血管标签包括有血管标签图像的真实的血管标签和无血管标签图像的预测标签。
6.如权利要求3所述的一种基于对抗学习的多光谱眼底图像分析方法,其特征在于,视网膜血管分割模型使用的血管标签包括有血管标签图像的真实的血管标签和眼底图像配准模型输出的形变后的血管标签。
7.一种基于对抗学习的多光谱眼底图像分析系统,其特征在于,包括:
数据采集模块,采集多光谱眼底图像;
数据分析模块,通过眼底图像分析模型对多光谱眼底图像进行配准,其中,眼底图像分析模型包括眼底图像配准模型和视网膜血管分割模型,通过视网膜血管分割模型获得多光谱眼底图像对应的血管图,眼底图像配准模型根据血管图对多光谱眼底图像进行配准,训练时,眼底图像配准模型和视网膜血管分割模型分别采用有血管标签图像进行单独训练;眼底图像配准模型和视网膜血管分割模型根据无血管标签图像进行对抗学习,具体过程为:
无血管标签图像输入视网膜血管分割模型中获得无血管标签图像的预测标签,通过预测标签对眼底图像配准模型进行训练;
眼底图像配准模型对预测标签进行配准获得形变后的血管标签,所述形变后的血管标签重新训练视网膜血管分割模型。
8.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-6任一项所述的一种基于对抗学习的多光谱眼底图像分析方法的步骤。
9.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-6任一项所述的一种基于对抗学习的多光谱眼底图像分析方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东师范大学,未经山东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011006571.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种弹性吊耳
- 下一篇:一种电力系统简谐波检测方法及系统