[发明专利]一种自动初始轮廓生成的水平集高原鼠兔图像分割方法在审
申请号: | 202010028360.8 | 申请日: | 2020-01-10 |
公开(公告)号: | CN111260657A | 公开(公告)日: | 2020-06-09 |
发明(设计)人: | 陈海燕;张华清;蔺莹;王婵飞;张墨逸;李立;郑玉峰;朱宁宁 | 申请(专利权)人: | 兰州理工大学 |
主分类号: | G06T7/11 | 分类号: | G06T7/11;G06T7/12;G06N3/08;G06N3/04 |
代理公司: | 焦作加贝专利代理事务所(普通合伙) 41182 | 代理人: | 冯新志 |
地址: | 730050 甘肃*** | 国省代码: | 甘肃;62 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 自动 初始 轮廓 生成 水平 高原 图像 分割 方法 | ||
本发明涉及一种自动初始轮廓生成的水平集高原鼠兔图像分割方法。首先采用基于Faster_RCNN的目标检测网络对高原鼠兔进行目标检测,确定目标位置,然后以该位置作为水平集图像分割方法的初始轮廓,使用水平集图像分割模型完成高原鼠兔图像的分割,解决传统水平集图像分割方法初始轮廓无法自动生成的问题,且分割性能与手动标记初始轮廓的水平集图像分割方法相近。
技术领域
本发明涉及图像识别技术领域,尤其是一种自动初始轮廓生成的水平集高原鼠兔图像分割方法。
背景技术
高原鼠兔图像分割是对高原鼠兔进行目标跟踪、密度估计、行为分析等研究的基础,对研究高原鼠兔的生活习性,有效掌握高原鼠兔的种群变化,防治高原鼠兔对生态环境的破坏等方面具有重要的意义。
在自然场景下,高原鼠兔图像具有背景复杂、灰度不均、噪声大、边缘对比度低的特点,这对高原鼠兔图像的分割带来了很大的挑战。现有的高原鼠兔图像分割采用水平集方法。水平集模型分为基于边缘的水平集模型、基于区域的水平集模型两大类。基于边缘的水平集模型利用图像梯度信息对图像进行分割,因此在弱边缘或噪声图像中分割效果不佳;基于区域的水平集模型不再依赖于图像的梯度信息,而是依赖于图像区域信息,所以在弱边缘或噪声图像中分割效果较好。常见的基于区域的水平集方法有Chan_Vese模型、LBF模型、RSF模型等,但这些方法都需要手动标记初始轮廓,水平集初始轮廓的位置会严重影响图像分割的性能。
针对传统水平集方法中初始轮廓无法自动生成的问题,近年来有许多解决方法被相继提出,白雪飞等提出了一种利用图像先验形状自适应的定义初始轮廓,但是该方法无法精确定位复杂背景图像中的目标;郭海涛等提出一种利用四叉树的方法来确定目标初始轮廓,但该方法只适用于正方形图像;张爱华等提出了一种利用视频序列的时域信息,采用背景减法确定目标初始轮廓的方法,但该方法利用了序列时域信息,而静态图像不具有时域信息;Yiwei Liu等运用模糊连接算法来获取目标的初始轮廓,但该方法的分割性能严重依赖于模糊连接的结果;Rukhmini Roy等利用SegNet网络进行粗分割,再利用水平集进行细分割的方法完成了对肺部图像的分割,利用粗分割阶段输出的种子点作为水平集的初始轮廓,但该方法的分割结果严重依赖于粗分割阶段的结果。
深度学习具有强大的学习能力,在自动提取目标特征、多层次特征表示上具有极大的优势。基于深度学习的目标检测方法通过提取目标高级特征,提高了检测精度;到目前为止,已经有很多基于深度学习的目标检测方法,其中著名的有RCNN、Fast-RCNN、Faster-RCNN等,Faster-RCNN与其它两种方法相比,具有计算速度更快、检测精度更高等优点。
发明内容
本发明提供一种基于Faster-RCNN的目标检测网络自动确定目标初始轮廓的方法,以此来克服水平集图像分割方法需要手动标记初始轮廓的问题。
一种自动初始轮廓生成的水平集高原鼠兔图像分割方法,首先采用基于Faster-RCNN的目标检测网络进行目标检测,再将检测得到的目标框作为水平集的初始轮廓,运用水平集方法对图像进行分割。
具体包括以下步骤:
1、收集大量高原鼠兔图像,并分为训练集和测试集两部分;
2、构建基于Faster-RCNN的目标检测网络;
3、利用训练集对目标检测网络进行网络训练;
4、用训练好的目标检测网络对测试集进行目标检测,获取包含目标区域框的图像;
5、对包含目标区域框的图像进行预处理;
6、把包含目标区域的检测框作为水平集的初始轮廓,运用水平集方法对图像进行分割,获取图像分割结果。
进一步的,所述步骤5的预处理是指对高原鼠兔图像进行形态学滤波,消除背景中的细密纹理及由噪声引起的干扰,增强目标的边缘;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于兰州理工大学,未经兰州理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010028360.8/2.html,转载请声明来源钻瓜专利网。