[发明专利]一种通过卷积神经网络学习的医疗图像提取方法在审
申请号: | 202110749908.2 | 申请日: | 2021-07-02 |
公开(公告)号: | CN113592778A | 公开(公告)日: | 2021-11-02 |
发明(设计)人: | 杨晓凡;刘玉蓉 | 申请(专利权)人: | 重庆飞唐网景科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 401120 重庆市渝北区双龙*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 通过 卷积 神经网络 学习 医疗 图像 提取 方法 | ||
1.一种通过卷积神经网络学习的医疗图像提取方法,其特征在于,包括如下步骤:
S1,获取肠镜图像数据从而建立肠镜图像数据集,对每张图像数据进行语义特征分析,按照时间序列进行图像数据排列;
S2,通过构建卷积神经网络损失函数形成肠镜图像帧训练模型,将训练后的肠镜图像帧训练结果形成特征样本。
2.根据权利要求1所述的通过卷积神经网络学习的医疗图像提取方法,其特征在于,所述S1包括:
S1-1,利用传递函数将肠镜图像特征图进行归一化,获取肠镜图像的数据集;
肠镜图像坐标(x,y)的传递函数ex,y为肠镜图像坐标的指数函数,β为扫描图像坐标的权重;
其中s为肠镜图像中的突出特征点获取因子,n为每一肠镜图像帧中的突出特征点数量,a(x,y)为一张肠镜图像帧中突出特征点位置函数,pn为突出特征点的概率分布。
3.根据权利要求1所述的通过卷积神经网络学习的医疗图像提取方法,其特征在于,所述S1还包括:
S1-2,经过归一化之后,将具备关联关系的肠镜图像帧的位置路径进行定位,对突出特征点的分布信息进行特征分布区间分析;获取区间分析的位置坐标点,确定突出特征点的分布以及坐标输出信息,直至完成一个肠镜图像帧全部突出特征点的定位,并形成相关性数据特征集;
S1-3,提取基准肠镜图像帧,与实时采集的肠镜图像帧进行比对,根据图像帧像素匹配方法进行融合,对两幅待融合的肠镜图像帧逐像素进行比对,判断突出特征点的有无,对突出特征点的交叠部分求差值,从而对肠镜图像帧进行图像语义判断,迭代多次,保存该多次后的训练样本,计算训练样本的交叉比;
训练样本交叉比计算Z(x,y)=Z1(x,y)+(Z1(x,y)-Z2(x,y))·δ·W
Z1(x,y)为基准肠镜图像帧的坐标灰度值,Z2(x,y)为实时肠镜图像帧的坐标灰度值,δ为图像位置坐标灰度差值系数,W为图像位置坐标灰度差值权重。
4.根据权利要求1所述的通过卷积神经网络学习的医疗图像提取方法,其特征在于,所述S1还包括:
S1-4,将训练之后的肠镜图像帧按照获取时间进行排列,在时间序列T的图像帧划分形成特征点提取窗序列对(T1,T2),(T2,T3),...,(Tn-1,Tn);定位肠镜图像帧特征界限,通过特征点提取窗序列进行抓取,获得前一图像帧和后一图像帧的变化度
其中,A(x,y)为肠镜图像帧中突出特征点位置坐标函数,|A(x,y)M+A(x,y)N|为基准特征M和特征点提取图像N的相似度,C为特征点匹配相关度系数,z为特征点提取窗的x或y位置坐标的特征点集合,d为特征点提取窗的x或y下一位置坐标的特征点变化集合。
5.根据权利要求1所述的通过卷积神经网络学习的医疗图像提取方法,其特征在于,所述S2包括:
S2-1,通过时间序列对初筛肠镜图像帧进行排列之后,结合提取参数和肠镜图像帧的获取时序,抽取肠镜图像特征数据构建损失函数,进行训练迭代;
该损失函数是根据目标时序卷积神经网络基础构建的损失函数
A为初筛肠镜图像帧数据张量,E和F分别为目标时序网络中肠镜图像帧存储的时间隐特征矩阵和位置隐特征矩阵,g为图像层数,εe对应时间隐特征矩阵E的正则化参数,εf对应位置隐特征矩阵F的正则化参数,D为初筛肠镜图像帧的偏置函数,bx,y为初筛肠镜图像帧的输入坐标集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆飞唐网景科技有限公司,未经重庆飞唐网景科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110749908.2/1.html,转载请声明来源钻瓜专利网。