[发明专利]一种基于深度卷积神经网络的图像识别方法、设备在审
申请号: | 202011492450.9 | 申请日: | 2020-12-17 |
公开(公告)号: | CN112699868A | 公开(公告)日: | 2021-04-23 |
发明(设计)人: | 陈浩;肖永杰;林黄靖;王春永 | 申请(专利权)人: | 深圳视见医疗科技有限公司 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/34;G06K9/62;G06N3/04 |
代理公司: | 深圳市徽正知识产权代理有限公司 44405 | 代理人: | 卢杏艳 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 卷积 神经网络 图像 识别 方法 设备 | ||
1.一种基于深度卷积神经网络的图像识别方法,其特征在于,包括如下步骤:
对胸部的X光片进行预处理,得到符合格式要求的X光片初始图像;
对所述X光片初始图像进行筛查,检测所述X光片初始图像是否为胸部正位图像;
将所述胸部正位图像输入至深度卷积神经网络的二分类模型中进行阴阳性分类;
将阳性结果的所述胸部正位图像输入至深度卷积神经网络的检测模型中检测所述胸部正位图像的疾病类型,并对所述胸部正位图像中的病灶区域进行轮廓标注;
显示所述胸部正位图像对应的所述疾病类型和所述病灶区域。
2.根据权利要求1所述的方法,其特征在于,所述对胸部X光片进行预处理,得到符合格式要求的X光片初始图像包括:
将所述胸部X光片所有的像素值映射到正态分布上,得到窗宽和窗位;
将所述窗宽区间外的噪音像素点去除,并将去除后的所述像素映射到0-255的区间范围,得到X光片初始图像。
3.根据权利要求2所述的方法,其特征在于,所述对所述X光片初始图像进行筛查,具体为:将所述X光片初始图像输入至胸部正位筛查模型中进行筛查,所述胸部正位筛查模型包括:Resnet-34特征提取网络和2个全连接神经网络,
所述Resnet-34特征提取网络用于对所述X光片初始图像进行胸部特征提取;
第一全连接神经网络用于判断所述胸部特征是否为胸部正位;
第二全连接神经网络用于确认所述胸部特征的光度学解释。
4.根据权利要求3所述的方法,其特征在于,在将所述胸部正位图像输入至深度卷积神经网络的二分类模型中之前,所述方法还包括:
如果所述胸部特征的光度学解释为灰度范围从亮到暗地上升像素值,则将所述X光片初始图像的像素进行处理以得到光度学解释为灰度范围从暗到亮地上升像素值。
5.根据权利要求4所述的方法,其特征在于,所述深度卷积神经网络的二分类模型用于对所述X光片初始图像进行胸部特征提取,并对提取的所述胸部特征进行阴阳性分类。
6.根据权利要求5所述的方法,其特征在于,所述深度卷积神经网络的检测模型包括:特征提取网络、特征融合网络、区域生成网络、定性器、定位器和分割器,
所述特征提取网络的输出为所述特征融合网络的输入;
所述特征融合网络的输出为所述区域生成网络的输入;
所述区域生成网络的输出为所述定性器的输入,所述定性器用于检测所述所述胸部正位图像的疾病类型;
所述区域生成网络输出为所述定位器的输入,所述定位器用于对所述病灶区域定位;
所述定位器输入为所述分割器的输出,所述分割器用于对所述病灶区域的轮廓进行标注。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
在所述深度卷积神经网络的二分类模型中的分类结果为阳性,但是所述深度卷积神经网络的检测模型输出的疾病置信度都小于设定阈值时,
所述深度卷积神经网络的检测模型强制输出最大置信度对应的所述病灶区的轮廓以及疾病类型。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在胸部疾病报告中可视化的显示所述病灶区域以及所述病灶区域对应的所述疾病类型。
9.根据权利要求1所述的方法,其特征在于,所述深度卷积神经网络的二分类模型和所述深度卷积神经网络的检测模型的训练集均来自于影像归档和通信系统。
10.一种图像识别设备,其特征在于,所述图像识别设备包括:存储器、处理器,通信总线以及存储在所述存储器上的图像识别程序,
所述通信总线用于实现处理器与存储器间的通信连接;
所述处理器用于执行所述图像识别程序,以实现如权利要求1至10中任一项所述的图像识别方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳视见医疗科技有限公司,未经深圳视见医疗科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011492450.9/1.html,转载请声明来源钻瓜专利网。