[发明专利]基于复杂背景下的移动目标检测方法和系统有效
申请号: | 202210371385.7 | 申请日: | 2022-04-11 |
公开(公告)号: | CN114463686B | 公开(公告)日: | 2022-06-17 |
发明(设计)人: | 孙自伟;华泽玺 | 申请(专利权)人: | 西南交通大学;四川都睿感控科技有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06N3/04;G06N3/08;G06T7/20;G06T7/60 |
代理公司: | 北京市领专知识产权代理有限公司 11590 | 代理人: | 潘镜如 |
地址: | 610031 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 复杂 背景 移动 目标 检测 方法 系统 | ||
本发明涉及基于复杂背景下的移动目标检测方法和系统,包括步骤:粗检阶段:将连续5帧视频图像输入由ConvLSTM网络和YOLO4网络组成的粗检模型中,其中ConvLSTM网络捕获运动信息,YOLO4网络利用含有运动信息的特征图定位目标在每一帧中的空间维度位置;细检阶段:利用目标跟踪法跟踪粗检阶段得到的目标在连接5帧图像上的空间维度位置,并获取最小外切矩形后裁剪得到5张图像,将5张图像融合构成一个15通道的图像后输入细检模型中,经过细检得到最终检测结果。本发明分为粗检阶段和细检阶段,两阶段充分利用了移动小目标的运动信息,来提高复杂背景下移动小目标检测的精度,减少了误报漏报,减轻了人工介入的程度。
技术领域
本发明涉及移动小目标检测技术领域,特别涉及一种基于复杂背景下的移动目标检测方法和系统。
背景技术
对于复杂背景下的移动小目标的检测,目前的方法概括起来主要有三种:
第一种可以归为基于背景的方法。这一类主要有直接对背景建模的,运用背景差的方法得到运动目标前景,但是背景随光强和其他扰动变化复杂,提取到的运动目标前景效果不好。还有运用鲁棒性主成分分析法(RPCA),直接分理处低秩矩阵(背景)和稀疏矩阵(噪声前景),但是在实际情况下,图像会受到一定程度的光强变化、遮挡、平移等干扰,这些因素也可以看做是一个噪声矩阵,从而影响运动目标的精度。实际上这类方法无法检测静止的目标。
第二种可以归为基于单帧图片的检测方法。这种方法是通用的目标检测方法,对于复杂环境下的小目标,其目标特征信息少,一般情况下与环境较为相似,因此基于单帧图片的检测方法效果较差。
第三种可以归为传统的基于运动信息的检测方法。这类方法主要是使用一个循环神经网络后接一个目标检测网络来检测,但是这类方法在处理较多运动小目标时,顾此失彼,显得无法集中注意力,要么出现很多漏检,要么出现很多误检的情况。
因此,基于运动信息对于复杂背景下的移动小目标检测(如老鼠、飞鸟等),一般监控区域面积较大,入侵异物较小,使用人工方式进行排查时,不仅成本高,而且人的精力有限很难保证排查精度。如果使用现有的检测算法,要么精度低,要么效率低。
发明内容
本发明的目的在于改善复杂背景下小目标检测的精度和效率,提供一种基于复杂背景下的移动目标检测方法和系统。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
基于复杂背景下的移动目标检测方法,包括以下步骤:
步骤S1,粗检阶段:将连续5帧视频图像依次输入由ConvLSTM网络和YOLO4网络组成的粗检模型中,其中ConvLSTM网络捕获运动信息,YOLO4网络利用含有运动信息的特征图定位目标在每一帧中的空间维度位置;
步骤S2,细检阶段:利用目标跟踪法跟踪粗检阶段得到的目标在连续5帧图像上的空间维度位置,获取5个空间维度位置的最小外切矩形并裁剪得到5张图像,将5张图像融合构成一个15通道的图像后输入细检模型中,经过细检得到最终检测结果。
所述粗检模型中的ConvLSTM网络,其融合历史状态和当前输入状态的方式为先将历史状态和当前输入状态进行连接操作,再进行卷积:
式中,为t时刻的细胞状态,细胞状态中存储了与运动信息相关的信息;为t时刻输入层状态,表示某一帧视频图像经过卷积后的状态;表示t时刻输入门控制信号,表示t时刻遗忘门控制信号;为融合输入信息和上一时刻细胞状态信息的卷积权重,卷积权重是可学习的。
所述ConvLSTM网络嵌入YOLO4网络的主干网络CSPDark53的第二层与第三层之间;且将YOLO4网络的每个输出尺寸扩大一倍。
所述粗检阶段具体包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学;四川都睿感控科技有限公司,未经西南交通大学;四川都睿感控科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210371385.7/2.html,转载请声明来源钻瓜专利网。