[发明专利]基于多重注意力融合的医学图像分割方法在审
申请号: | 202310064474.1 | 申请日: | 2023-01-12 |
公开(公告)号: | CN116152492A | 公开(公告)日: | 2023-05-23 |
发明(设计)人: | 章勇勤;米继宗;刘钰;叶易凤;常明则 | 申请(专利权)人: | 西北大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/25;G06V10/52;G06V10/764;G06V10/80;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 西安恒泰知识产权代理事务所 61216 | 代理人: | 周春霞 |
地址: | 710069 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 多重 注意力 融合 医学 图像 分割 方法 | ||
1.一种基于多重注意力融合的医学图像分割模型,其特征在于,包括:深度残差网络、空洞卷积空间注意力模块、金字塔扩充模块和双分支融合模块;
所述深度残差网络用于对待分割图像进行特征提取,得到不同尺度的多个第一特征图;
所述空洞卷积空间注意力模块用于对所述不同尺度的多个第一特征图进行空洞卷积,得到不同尺度的多个第二特征图;
所述金字塔扩充模块用于对所述不同尺度的多个第二特征图按照尺度由大到小进行卷积、融合操作,得到不同尺度的多个第三特征图;对所述不同尺度的多个第三特征图按照尺度由小到大进行卷积、融合操作,得到不同尺度的多个第四特征图;
所述双分支融合模块用于对所述不同尺度的多个第四特征图进行类别掩码预测和前背景掩码预测,并对类别掩码预测结果和前背景掩码预测结果进行融合,得到图像分割结果。
2.如权利要求1所述的模型,其特征在于,所述空洞卷积空间注意力模块包括依次连接的输入层、最大池化及平均池化层和空洞卷积层。
3.如权利要求1所述的模型,其特征在于,所述双分支融合模块包括类别掩码预测分支和前背景掩码预测分支;
所述类别掩码预测分支包括依次连接的4个卷积层、反卷积层、卷积层;
所述前背景掩码预测分支包括依次连接的2个卷积层、全连接层;
所述类别掩码预测分支最后一个卷积层输出所述类别掩码预测结果,所述前背景掩码预测分支的全连接层输出所述前背景掩码预测结果。
4.一种基于多重注意力融合的医学图像分割方法,其特征在于,包括:
将待分割图像输入到基于多重注意力融合的医学图像分割模型中,得到图像分割结果;
所述基于多重注意力融合的医学图像分割模型为根据权利要求1-3中任一权利要求所述的基于多重注意力融合的医学图像分割模型。
5.如权利要求4所述的方法,其特征在于,所述方法还包括对所述基于多重注意力融合的医学图像分割模型进行训练,得到训练后的基于多重注意力融合的医学图像分割模型。
6.如权利要求5所述的方法,其特征在于,所述对所述基于多重注意力融合的医学图像分割模型进行训练,包括:
针对金字塔扩充模块得到的每个第四特征图确定至少一个目标区域,将所述至少一个目标区域输入到双分支融合模块。
7.如权利要求6所述的方法,其特征在于,所述针对每个所述第四特征图确定至少一个目标区域,包括:
确定每个所述第四特征图中的多个预测目标区域框;
根据真实目标区域框和所述多个预测目标区域框,计算每个所述预测目标区域框对应的交并比;
对所有预测目标区域框对应的交并比按照由大到小进行排序,选取排序靠前的至少一个交并比对应的预测目标区域框,作为所述至少一个目标区域。
8.如权利要求7所述的方法,其特征在于,其中,根据真实目标区域框和所述多个预测目标区域框,计算每个所述预测目标区域框对应的交并比IoUnew,采用以下公式:
其中,S1为预测目标区域框,S2为真实目标区域框,λ为惩罚因子。
9.如权利要求5所述的方法,其特征在于,所述对所述基于多重注意力融合的医学图像分割模型进行训练,包括:
对包含病灶区的图像切片进行HU指数截断处理、数据扩充处理,得到训练数据。
10.如权利要求5所述的方法,其特征在于,在模型训练过程中,所述基于多重注意力融合的医学图像分割模型中的深度残差网络为预训练后的深度残差网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北大学,未经西北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310064474.1/1.html,转载请声明来源钻瓜专利网。