[发明专利]一种施源器自动重建方法和装置在审
申请号: | 202211087439.3 | 申请日: | 2022-09-07 |
公开(公告)号: | CN115359143A | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 王佳浩;谢洪玲;屠晔强;周鹏飞;唐秋 | 申请(专利权)人: | 浙江大学医学院附属妇产科医院 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T7/11;G06T5/00;G06T5/40;G06N3/04;G06N3/08;A61N5/10 |
代理公司: | 北京共腾律师事务所 16031 | 代理人: | 姚星 |
地址: | 310002 *** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 施源器 自动 重建 方法 装置 | ||
1.一种施源器自动重建方法,其特征在于,包括:
获取训练数据集,所述训练数据集中包含多组CT样本图像组,每组CT样本图像组中的施源器的类型不同,所述每组CT样本图像组中包含多个CT样本图像和每个CT样本图像对应的标签真值图;
将所述训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图;
根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值;
利用所述损失值对所述初始施源器重建模型的参数进行优化,得到施源器重建模型;
将采集的CT图像输入所述施源器重建模型,输出所述CT图像的施源器重建CT图像。
2.根据权利要求1所述施源器自动重建方法,其特征在于,所述获取训练数据集之后,还包括:
对所述训练数据集中的每个CT样本图像进行直方图均衡化处理;
将所述每个CT样本图像和每个CT样本图像对应的标签真值图的中心点作为裁剪中心点,按照预设尺寸进行裁剪;
对裁剪后的每个CT样本图像和每个CT样本图像对应的标签真值图进行数据增强处理。
3.根据权利要求1所述施源器自动重建方法,其特征在于,所述将所述训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图,包括:
利用所述初始施源器重建模型从所述CT样本图像进行特征提取,得到特征数据;
将所述特征数据输入激活函数,输出所述CT样本图像的预测真值图。
4.根据权利要求1所述施源器自动重建方法,其特征在于,所述根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值,包括:
根据每个CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定该CT样本图像的子损失值;
根据所有CT样本图像的子损失值、预设值确定所述训练数据集的损失值。
5.根据权利要求1所述施源器自动重建方法,其特征在于,所述利用所述损失值对所述初始施源器重建模型的参数进行优化,得到施源器重建模型,包括:
利用所述损失值对所述初始施源器重建模型的参数进行优化;
判断所述初始施源器重建模型是否收敛;
若否,则利用优化后的初始施源器重建模型对所述训练数据集进行重建,并重新计算损失值;
利用重新计算的损失值对所述优化后的初始施源器重建模型的参数进行优化;
直到所述初始施源器重建模型收敛,得到所述施源器重建模型。
6.一种施源器自动重建装置,其特征在于,所述装置包括:
采集模块,用于获取训练数据集,所述训练数据集中包含多组CT样本图像,每组CT样本图像中的施源器的类型不同,所述每组CT样本图像中包含多个CT样本图像和每个CT样本图像对应的标签真值图;
深度学习模块,用于将所述训练数据集输入初始施源器重建模型中,输出每个CT样本图像的预测真值图;
计算模块,用于根据所有CT样本图像的预测真值图和每个CT样本图像对应的标签真值图确定损失值;
所述深度学习模块,还用于利用所述损失值对所述初始施源器重建模型的参数进行优化,得到施源器重建模型;
所述深度学习模块,还用于将采集的CT图像输入所述施源器重建模型,输出所述CT图像的施源器重建CT图像。
7.根据权利要求6所述施源器自动重建装置,其特征在于,还包括:
处理模块,用于对所述训练数据集中的每个CT样本图像进行直方图均衡化处理;
所述处理模块,还用于将所述每个CT样本图像和每个CT样本图像对应的标签真值图的中心点作为裁剪中心点,按照预设尺寸进行裁剪;
所述处理模块,还用于对裁剪后的每个CT样本图像和每个CT样本图像对应的标签真值图进行数据增强处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学医学院附属妇产科医院,未经浙江大学医学院附属妇产科医院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211087439.3/1.html,转载请声明来源钻瓜专利网。