[发明专利]一种施源器自动重建方法和装置在审
申请号: | 202211087439.3 | 申请日: | 2022-09-07 |
公开(公告)号: | CN115359143A | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 王佳浩;谢洪玲;屠晔强;周鹏飞;唐秋 | 申请(专利权)人: | 浙江大学医学院附属妇产科医院 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T7/11;G06T5/00;G06T5/40;G06N3/04;G06N3/08;A61N5/10 |
代理公司: | 北京共腾律师事务所 16031 | 代理人: | 姚星 |
地址: | 310002 *** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 施源器 自动 重建 方法 装置 | ||
本申请实施例公开了一种施源器自动重建方法和装置,所述方法包括:获取训练数据集,训练数据集中包含多组CT样本图像组,每组CT样本图像组中的施源器的类型不同,每组CT样本图像组中包含多个CT样本图像和每个CT样本图像对应的标签真值图;将训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图;根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值;利用损失值对初始施源器重建模型的参数进行优化,得到施源器重建模型;将采集的CT图像输入施源器重建模型,输出CT图像的施源器重建CT图像。
技术领域
本申请涉及深度学习领域,尤其涉及一种施源器自动重建方法和装置。
背景技术
目前在近距离放疗中对施源器进行重建,大多依靠物理师人工来完成。然而受物理师主观因素等的影响,存在重建效率慢、误差大等缺点。因此迫切需要一种施源器自动重建方法,能够在解放物理师劳动密集型工作的同时,提高施源器重建的准确率。
发明内容
本申请提供一种施源器自动重建方法和装置,以解决上述的技术问题。
为此,本申请实施例一方面提供一种施源器自动重建方法,所述方法包括:
获取训练数据集,所述训练数据集中包含多组CT样本图像组,每组CT样本图像组中的施源器的类型不同,所述每组CT样本图像组中包含多个CT样本图像和每个CT样本图像对应的标签真值图;
将所述训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图;
根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值;
利用所述损失值对所述初始施源器重建模型的参数进行优化,得到施源器重建模型;
将采集的CT图像输入所述施源器重建模型,输出所述CT图像的施源器重建CT图像。
其中,所述获取训练数据集之后,还包括:
对所述训练数据集中的每个CT样本图像进行直方图均衡化处理;
将所述每个CT样本图像和每个CT样本图像对应的标签真值图的中心点作为裁剪中心点,按照预设尺寸进行裁剪;
对裁剪后的每个CT样本图像和每个CT样本图像对应的标签真值图进行数据增强处理。
其中,所述将所述训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图,包括:
利用所述初始施源器重建模型从所述CT样本图像进行特征提取,得到特征数据;
将所述特征数据输入激活函数,输出所述CT样本图像的预测真值图。
其中,所述根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值,包括:
根据每个CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定该CT样本图像的子损失值;
根据所有CT样本图像的子损失值、预设值确定所述训练数据集的损失值。
其中,所述利用所述损失值对所述初始施源器重建模型的参数进行优化,得到施源器重建模型,包括:
利用所述损失值对所述初始施源器重建模型的参数进行优化;
判断所述初始施源器重建模型是否收敛;
若否,则利用优化后的初始施源器重建模型对所述训练数据集进行重建,并重新计算损失值;
利用重新计算的损失值对所述优化后的初始施源器重建模型的参数进行优化;
直到所述初始施源器重建模型收敛,得到所述施源器重建模型
本申请实施例另一方面提供一种施源器自动重建装置,所述装置包括:
采集模块,用于获取训练数据集,所述训练数据集中包含多组CT样本图像,每组CT样本图像中的施源器的类型不同,所述每组CT样本图像中包含多个CT样本图像和每个CT样本图像对应的标签真值图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学医学院附属妇产科医院,未经浙江大学医学院附属妇产科医院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211087439.3/2.html,转载请声明来源钻瓜专利网。