[发明专利]一种适用于测量人眼睫状肌和巩膜结构多指标的方法在审
申请号: | 202210748091.1 | 申请日: | 2022-06-29 |
公开(公告)号: | CN115147364A | 公开(公告)日: | 2022-10-04 |
发明(设计)人: | 黄凡凡;张童;胡柯;万文娟;计岩;高宁;杜淼淼 | 申请(专利权)人: | 重庆医科大学附属第一医院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04;G06N3/08;G06T7/10;G06T7/60 |
代理公司: | 重庆智慧之源知识产权代理事务所(普通合伙) 50234 | 代理人: | 高彬 |
地址: | 400042 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 适用于 测量 人眼睫状肌 巩膜 结构 指标 方法 | ||
本发明属于计算机图像处理技术领域,具体公开了一种适用于测量人眼睫状肌和巩膜结构多指标的方法,包括获得睫状体部的灰度图像;对灰度图像进行预处理;对睫状肌进行识别并进行实例分割,获得睫状肌掩膜;对获得的睫状肌掩膜进行形态学处理,包括筛选出睫状肌掩膜中所占面积最大的轮廓以计算睫状肌面积、睫状肌周长、睫状肌长度、睫状肌厚度、巩膜厚度和最大睫状肌厚度;对睫状肌的相关角度进行测量,相关角度包括睫状肌前角、睫状肌尾角、睫状肌下角、TCA、ICA和前房角。本技术方案能够完成对睫状肌和巩膜相关参数的全自动测量,提升在医学研究、临床工作中的效率,无需人工介入,排出人为因素干扰,结果可重复性强。
技术领域
本发明属于计算机图像处理技术领域,尤其涉及一种适用于测量人眼睫状肌和巩膜结构多指标的方法。
背景技术
人眼部睫状肌相关生物参数的准确测量,是眼科医学研究中的重要环节。传统方式利用超声活体显微镜(Ultrasound Biomicroscopy,UBM)获取被测者睫状体部灰度图像,人工在图像上测量睫状肌的各种生物指标。该方法受测量者的主观影响较大,可重复性低。人眼部睫状肌生物参数包括:睫状肌的周长,面积,睫状肌厚度,睫状肌长度,以及睫状肌角度等参数。由于图像分辨率的局限性和像素点的不连续性,基于图像的角度估计是计算机图像处理问题中的一大难点。
睫状肌的识别可以通过掩膜区域卷积神经网络(Mask RCNN)获得睫状肌的掩膜,接着应用各种计算机视觉方法进行图像形态学处理以测量睫状肌相关指标。为对睫状肌相关角度指标进行全自动测量,需要找到睫状体附近的关键点。关键点检测技术指的是计算机从图像中自动识别出被检测对象的关键部位,已被广泛用于人体姿态估计、行为识别等领域。关键点检测技术的两大方法,分为回归法和热图法。回归法,即在主干特征提取网络后将特征图打平(flatten),使用全连接层回归出关键点的坐标值。热图法,即让卷积神经网络最后一层生成高斯热图,再找出热图中值最大位置的索引作为关键点的位置。两种方法各有优劣,回归法具有更好的鲁棒性,但其将特征图打平,丧失了关键点的空间特征;而热图法更多关注于局部的空间特征,网络更好收敛,使用DSNT(Differentiable Spatialto Numerical Transform)层对热图求期望还可以使热图法具有高精度,但热图法不太擅长刚性物体的关键点检测。角度估计更多关注角的顶点和两条射线的斜率,即两个向量之间的夹角,而非是三个顶点的坐标值,使用传统的方法生成三个关键点的热图,或用三个关键点的坐标值作为神经网络的输出,不符合角度测量任务的目的。
因此现在急需设计一种能够完成对睫状肌相关的参数进行全自动测量的方法,来提升在医学研究、临床工作中的效率。
发明内容
本发明的目的在于提供一种适用于测量人眼睫状肌和巩膜结构多指标的方法,以解决目前采用的回归法会造成丧失关键点的空间特征以及采用的热图法不擅长钢性物体的关键点检测的问题。
为了达到上述目的,本发明的技术方案为:一种适用于测量人眼睫状肌和巩膜结构多指标的方法,包括
获得睫状体部的灰度图像;
使用深度学习平台对灰度图像进行预处理;
使用深度学习平台对睫状肌进行识别并进行实例分割,获得睫状肌掩膜;
使用深度学习平台对获得的睫状肌掩膜进行形态学处理;包括筛选出睫状肌掩膜中所占面积最大的轮廓以及根据所占面积最大的轮廓计算出睫状肌面积、睫状肌周长、睫状肌长度、睫状肌厚度、巩膜厚度和最大睫状肌厚度;
使用深度学习平台对睫状肌的相关角度进行测量,相关角度包括睫状肌前角、睫状肌尾角、睫状肌下角、TCA、ICA和前房角。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆医科大学附属第一医院,未经重庆医科大学附属第一医院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210748091.1/2.html,转载请声明来源钻瓜专利网。