[发明专利]一种基于改进YOLOv4的河道废弃物监测方法在审
申请号: | 202011383306.1 | 申请日: | 2020-12-01 |
公开(公告)号: | CN112613343A | 公开(公告)日: | 2021-04-06 |
发明(设计)人: | 林峰;侯添;朱志冠 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 厦门原创专利事务所(普通合伙) 35101 | 代理人: | 龚杰奇 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolov4 河道 废弃物 监测 方法 | ||
本发明涉及计算机视觉技术领域,具体地说,涉及一种基于深度学习的河道漂浮物监测方法。利用已有的摄录设备从一定的角度、合适的距离,对河道水面的漂浮物进行监测,获得视频图像后,对数据集中所有标注的边框进行尺度的聚类处理,再对视频数据采用Mosaic数据增强方法进行预处理,然后利用训练好的分类模型进行识别,对漂浮物进行实时检测。本发明例的训练及检测网络采用YOLOv4网络结构,其特征图的上采样方式采用双线性插值算法,在保证模型准确性的同时,降低了计算量,提升了设备的计算速度。该方法准确率高,检测速度快,具有很高的应用价值。
技术领域
本发明涉及计算机视觉技术领域,具体地说,涉及一种基于改进YOLOv4的河道漂浮物监测方法。
背景技术
河道中的漂浮物对于河道的美观、河道的水质以及环境的评估有着重要的影响。现今河道漂浮物往往靠人工到现场或借助视频发现,需要化费大量的人工和时间,需要一种能自动监测河道废弃物的便捷可靠的办法。随着机器视觉技术的发展,使得基于机器视觉自动识别监测河道废弃物成为可能。
现在已经有不少采用深度学习等技术进行目标检测的方法,如公布号为CN111709381A的中国专利文献公开了一种基于YOLOv3-SPP的道路环境目标检测方法,该方法利用深度学习技术与图像处理技术,具有更好的抗噪性能和识别精度,为智能驾驶系统精准感知行车提供了可能。公布号为CN 111553406A的中国专利文献公开了一种基于改进YOLO-V3的目标检测系统、方法及终端,该系统网络模型较小,加快目标检测速度,增强了网络特征融合效果,实现了更好的检测结果。公布号为CN111709489A的中国专利文献公开了一种基于改进YOLOv4的柑橘识别方法,该方法通过改进YOLOv4网络模型结构,添加了上采样模块和对小目标敏感的检测特征图,能更好的识别个体较小的柑橘。公布号为CN110348303A的中国专利文献公开了一种可搭载于无人艇的辅助水面巡逻系统以及水面监测方法,该方法采用YOLOV3算法进行检测与识别,其计算速度与YOLOV4有一定差距。
以上方法虽然对特定的目标有很好的检测效果,但由于河道废弃物具有不同的特征,有各种干扰,比如:水草或其他设施遮挡监测目标的一部分、漂浮物附近有强烈的反光、河道水体表面复杂、目标在图像中较小、目标附近有波纹等。因此需要对数据进行预处理,采用合适的网络及算法来进行监测。
发明内容
本发明的目的是提供一种基于深度学习的河道漂浮物监测方法,通过对视频里漂浮物的识别,来实现对河道水面的监测。为了实现上述目的,本发明采用基于改进YOLOv4的河道漂浮物监测方法,如图1所示,其中训练过程包括以下步骤:
1)获取河道水面监测的原始视频数据,从原始视频数据中提取出图像数据;
2)对数据集中所有标注的边框进行尺度的聚类处理;
3)视频数据采用Mosaic数据增强方法进行预处理;
4)将一个batch图像数据输入网络中进行前向传播得到检测结果;
5)对检测结果与标注值计算loss;
6)根据loss值反向传播,并根据学习率进行权重的更新;
7)重复4)、5)、6)步骤直到网络loss不断下降,趋于收敛。
检测过程包括以下步骤:
8)将待检测图像作为输入,经过backbone提取图片特征;
9)提取backbone网络中不同深度的特征图;
10)将提取的多个尺度的特征图作为FPN结构的输入进行特征融合,其中特征图上采样方式为双线性插值算法;
11)将FPN融合后的多尺度特征图输入到PAN结构中进行强特征定位,得到三个不同尺度的特征图检测结果;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011383306.1/2.html,转载请声明来源钻瓜专利网。