[发明专利]一种基于域适应的无监督医学图像分割方法有效
申请号: | 201911401973.5 | 申请日: | 2019-12-31 |
公开(公告)号: | CN111161249B | 公开(公告)日: | 2023-06-02 |
发明(设计)人: | 庄吓海;吴富平 | 申请(专利权)人: | 复旦大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/11;G06V10/26;G06V10/764;G06V10/82;G06N3/0475 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 丁云 |
地址: | 200433 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 适应 监督 医学 图像 分割 方法 | ||
本发明涉及一种基于域适应的无监督医学图像分割方法,该方法包括如下步骤:S1,获取与目标数据结构相同的不同模态的具有标签的影像学数据作为源数据;S2,引入隐变量,构建两个结构相同的用于图像分割的源变分自编码器和目标变分自编码器;S3,获取两个变分自编码器的损失函数;S4,估计两个变分自编码器隐变量的概率分布,计算隐变量概率分布的差异;S5,综合损失函数及隐变量概率分布的差异得到总体损失函数,利用总体损失函数优化两个变分自编码器;S6,采用优化得到的目标变分自编码器对目标数据进行分割。与现有技术相比,本发明该方法训练简单快速,泛化能力强。
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种基于域适应的无监督医学图像分割方法。
背景技术
精确的心脏分割对于许多临床应用有着十分重要的辅助作用,如心脏的三维建模和心功能分析,在临床上,多模态医学影像已被广泛使用。然而,手动分割所有模态的心脏图像十分耗时耗力,而且不同医师的分割结果之间也存在着差异。为了减轻工作量,建立统一分割标准,计算机自动化分割就显得尤为重要。
基于学习的训练方法可以实现所需的自动化分割模型。为了减少训练所需标注数据,一个非常有用的方法是利用已有的有金标准的心脏影像数据,迁移学习其中的解剖结构信息,并将学习到的知识用于待分割的其它模态的目标图像,实现图像的自动分割。然而,实验表明在一种模态数据上训练得到的分割模型若直接用于其它模态的目标数据,分割结果通常会很差,这是由于不同模态数据的分布差异所导致的。域适应方法很好的解决了这一问题,在分割问题中,域适应方法通常是将所有数据映射到同一个隐变量特征空间,利用优化方法将不同模态数据的分布在该特征空间上进行匹配,得到模态无关的特征,最后利用该特征和有标签源数据进行有监督学习,得到分割模型,该模型对于目标数据有着很好的泛化能力。
目前,域适应无监督分割方法中,均采用对抗神经网络迫使不同域隐变量模态无关。该策略通过引入一个判别器网络,交替更新生成器和判别器网络,最终使得该判别器无法识别不同模态隐变量的类别。然而这种方法一般在优化过程中很难找到纳什均衡点,且训练过程复杂。为了加快训练过程,研究了分布差异的显式度量在分割中的能力,然而一般的显式度量如通过一些统计量等只在分类问题中有过研究,在分割问题上很难被使用,因为该策略忽略了图像的空间相关性。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于域适应的无监督医学图像分割方法。
本发明的目的可以通过以下技术方案来实现:
一种基于域适应的无监督医学图像分割方法,该方法包括如下步骤:
S1:获取与目标数据结构相同的不同模态的具有标签的影像学数据作为源数据;
S2:对源数据和目标数据分别引入隐变量,构建两个结构相同的变分自编码器,分别为用于源数据图像分割的源变分自编码器和用于目标数据图像分割的目标变分自编码器;
S3:分别获取两个变分自编码器的损失函数;
S4:分别估计两个变分自编码器隐变量的概率分布,并计算隐变量概率分布的差异;
S5:综合两个变分自编码器的损失函数及隐变量概率分布的差异得到总体损失函数,利用总体损失函数优化两个变分自编码器;
S6:采用优化得到的目标变分自编码器对目标数据进行分割得到分割结果。
所述的变分自编码器包括编码器、解码器和预测模块,所述的编码器用于输入原始图像并输出隐变量,所述的预测模块用于输入所述的隐变量并输出分割结果,所述的解码器用于同时输入隐变量和分割结果并输出原始图像的重建结果。
源变分自编码器的损失函数为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于复旦大学,未经复旦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911401973.5/2.html,转载请声明来源钻瓜专利网。