[发明专利]一种基于YOLO和U-Net的口腔曲断影像智齿分割方法有效
申请号: | 202110442986.8 | 申请日: | 2021-04-23 |
公开(公告)号: | CN113139977B | 公开(公告)日: | 2022-12-27 |
发明(设计)人: | 杨旸;景相宜 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G06T7/11 | 分类号: | G06T7/11;G06T7/136;G06T7/194;G06V10/764;G06V10/82 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 何会侠 |
地址: | 710049 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolo net 口腔 影像 智齿 分割 方法 | ||
1.一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:首先对口腔曲断影像进行图像预处理,对预处理后图像中的智齿进行位置标注得到位置标签,并划分训练集和测试集;随后利用图像和位置标签训练YOLO模型,设置空间位置的置信度阈值,得到智齿的空间位置信息;然后基于智齿的空间位置信息进行切片处理,将得到的所有包含智齿的切片进行预处理,预处理后对训练集的切片进行像素级的类别标注;最后采用训练集的切片图像和位置标签训练U-Net模型,设置像素类别的置信度阈值进行二值化,最终得到智齿的像素级分类信息,完成智齿分割;具体包括如下步骤:
步骤1:对原始的口腔曲断影像进行图像预处理,提升图像质量;对预处理后图像中的智齿进行空间位置的手工标注得到使用智齿区域左上坐标和右下坐标表示的位置标签,并将图像和标签按照7:3的比例划分为训练集和测试集;
步骤2:为检测智齿空间位置,使用基于C语言的Darknet框架搭建YOLO模型,将训练集输入YOLO模型进行训练;完成训练后,将测试集输入YOLO模型得到目标检测预测结果,与位置标签进行比较,计算目标检测的精度;
步骤3:将训练集和测试集中包含智齿的区域进行切割,得到包含智齿的局部切片,训练集的切片是由手工标注得到,测试集包含智齿的切片是YOLO模型预测的结果;对所有切片进行预处理,提升切片图像的质量,并对训练集和测试集的切片进行像素级标注,得到用于U-Net图像分割的新数据集;
步骤4:使用基于Python的Keras框架搭建U-Net模型,将训练集切片输入U-Net模型进行训练;完成训练后,将测试集切片输入U-Net模型得到智齿分割结果,与位置标签进行比较,计算智齿分割的精度;最后设置阈值,对分割结果进行二值化处理。
2.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤1所述的对原始的口腔曲断影像进行图像预处理的具体方式为,直方图均衡结合Gamma系数为1.6的Gamma变换,以均衡图像的灰度并放大特征。
3.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤1所述的对预处理后图像中的智齿进行空间位置的手工标注的过程中,利用了智齿的位置在所有牙齿边缘的特点,对标注框进行了尺寸设计,强化了智齿的特征。
4.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤2所述的基于C语言的Darknet框架搭建YOLO模型,设置的超参数为:设置学习率为0.0001,迭代次数为20000,优化器为Adam,激活函数为Leaky ReLU。
5.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤3所述的对所有切片进行预处理,具体操作为尺寸归一化、直方图均衡。
6.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤4所述的基于Python的Keras框架搭建U-Net模型,设置的超参数为:设置学习率为0.0005,迭代次数为200,优化器为Adam,激活函数为ReLU。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110442986.8/1.html,转载请声明来源钻瓜专利网。