[发明专利]基于生成对抗模型识别肝肿瘤的方法及装置在审
申请号: | 201810749637.9 | 申请日: | 2018-07-10 |
公开(公告)号: | CN109214408A | 公开(公告)日: | 2019-01-15 |
发明(设计)人: | 李波;王翔宇;张晓龙;黄德双 | 申请(专利权)人: | 武汉科技大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 杭州宇信知识产权代理事务所(普通合伙) 33231 | 代理人: | 王健 |
地址: | 430081 *** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对抗 模型识别 肝肿瘤 分类网络 分类效果 判别结果 图像输入 训练分类 输出 网络 | ||
本发明公开了一种基于生成对抗模型识别肝肿瘤的方法,包括如下步骤:S1、建立并训练生成对抗模型;S2、基于所述生成对抗模型,训练分类网络;S3、将待判别图像输入所述分类网络,其输出即为判别结果。本方法与现有的方法相比,得到更好的分类效果和性能。
技术领域
本发明涉及图像识别领域,特别是基于生成对抗模型识别肝肿瘤的方法和装置。
背景技术
肝癌是全世界范围内癌症致死率最高的癌种之一,是我国高发的,危害极大的恶性肿瘤,肝癌的早期诊断可以极大的降低死亡率。
CT已经成为肝癌诊断的重要常规手段。腹部CT增强扫描可清楚地显示肝癌的大小、数目、形态、部位、边界、肿瘤血供丰富程度,以及与肝内管道的关系,对于进一步明确诊断,与其他良性肝脏占位相鉴别,同时明确肝癌的分期分级,对于指导治疗及判断预后有重要意义。
近年来,基于其自身的优良特性,加上计算机性能的提升,深度学习已经成为众多科学领域的研究热点之一,特别是在分类、识别等领域,一些基于深度学习的病变识别方法也被提出。但由于医学图像训练数据样本量小,无法满足深度学习的训练要求,成为阻碍其在医学领域应用的一大问题。
之后,深度学习领域中涌现出许多新的模型,并得到广泛关注,其中就包含变分自编码器和生成对抗网络。变分自编码器是一种有效的生成模型,包含编码器和解码器两个部分,编码器将输入数据转化为高斯分布,再通过解码器还原该输入信息的分布。生成对抗模型由两个部分组成:生成模型和判别模型,均为非线性深度模型,生成模型如同传统生成模型一样,通过建立一个函数,用于处理输入的原始数据或信息到生成信息的映射;而判别模型用来判断其输入是训练数据而非生成数据的概率。以上两种方法常使用于图片修复、数据生成、特征维度压缩等领域。通过该方法,可以使用含有大量数据的数据集进行数据迁移,以增加医学图像训练数据样本量的大小,从而满足深度学习的要求。
发明内容
本发明的目的在于提供一种基于生成对抗模型的肝病理切片中肿瘤识别方法和装置。
本发明解决其技术问题采用的技术方案如下:
一种基于生成对抗模型识别肝肿瘤的方法,包括如下步骤:
S1、建立并训练生成对抗模型;
S2、基于所述生成对抗模型,训练分类网络;
S3、将待判别图像输入所述分类网络,其输出即为判别结果。
进一步的,所述生成对抗模型包括第一变分自编码器模型VAE1、第二变分自编码器模型VAE2、第一判别网络D1和第二判别网络D2,S1具体包括如下步骤:
S11、固定第一变分自编码器模型VAE1的参数,以公共图片数据库中的数据集为输入生成模型输出图片,结合肝肿瘤数据集中的非肿瘤图片,对第一判别网络D1进行训练;
S12、固定第二变分自编码器模型VAE2的参数,以公共图片数据库中的数据集为输入生成模型输出图片,结合肝肿瘤数据集中的肿瘤图片,对第二判别网络D2进行训练;
S13、分别固定所述第一判别网络D1和第二判别网络D2的参数,使用所述公共图片数据库中的数据集,对所述第一变分自编码器模型模型VAE1和第二变分自编码器模型VAE2进行训练;
S14、重复步骤S11、S12、S13,直到所述生成对抗模型训练完成。
进一步的,S2具体包括如下步骤:
S21、将公共图片数据库中的数据集输入第一变分自编码器模型VAE1,获得第一类输出图像并添加非肿瘤标签;将公共图片数据库中的数据集输入第二变分自编码器模型VAE2,获得第二类输出图像并添加肿瘤标签;使用所述第一类输出图像和第二类输出图像对所述分类网络进行训练;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉科技大学,未经武汉科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810749637.9/2.html,转载请声明来源钻瓜专利网。