[发明专利]基于动态候选区多尺度图像的铁路周界异物入侵检测方法在审
申请号: | 202010565024.7 | 申请日: | 2020-06-19 |
公开(公告)号: | CN111754477A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 谢征宇;李传;秦勇;贾利民;孙雨萌 | 申请(专利权)人: | 北京交通大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/136;G06T7/20 |
代理公司: | 北京市商泰律师事务所 11255 | 代理人: | 黄晓军 |
地址: | 100044 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动态 候选 尺度 图像 铁路 周界 异物 入侵 检测 方法 | ||
本发明提供了一种基于动态候选区多尺度图像的铁路周界异物入侵检测方法。该方法包括:获取铁路周界的监控视频,提取监控视频的第1帧到第N帧图像;采用高斯金字塔算法分别构造第1帧到第N帧图像的多尺度图像;将第N帧图像的多尺度图像与第N‑1帧图像的多尺度图像做差分运算提取第N帧图像的动态目标候选区;将第N帧图像的多尺度图像与背景模型图像做差分运算得到第N帧图像的入侵目标前景信息;将第N帧图像的目标动态候选区和入侵目标前景信息进行信息融合,并进行目标识别分析,输出第N帧图像中的入侵目标特征信息。本发明既能快速、准确地检测出铁路场景内的异物入侵目标,漏报率和误报率均较低,而且计算效率高,占用计算资源少。
技术领域
本发明涉及轨道交通安全技术领域,尤其涉及一种基于动态候选区多尺度图像的铁路周界异物入侵检测方法。
背景技术
截至2019年底,我国铁路营业里程达到13.9万公里,高速铁路营业里程达到3.5万公里。《中长期铁路网规划》提出:到2025年底,铁路网规模达到17.5万公里左右,其中高速铁路3.8万公里左右。随着铁路大规模投入运营,铁路周界安全问题日益凸显,侵入铁路周界、妨碍列车正常运行的物体会对铁路安全造成较大影响和安全威胁,如列车晚点、停运、人员伤亡及经济损失。因此,及时发现入侵铁路周界的行人、落石等异物,对维护铁路安全和正常运营至关重要,将直接影响到列车的安全运营。
基于图像处理的铁路场景周界入侵目标检测是利用计算机视觉技术和人工智能技术对铁路场景的视频序列进行描述、理解和分析,借助计算机强大的数据处理能力过滤画面中无用的干扰信息,抽取画面中的有效信息,对监控场景中的变化进行识别、定位和跟踪,并在此基础上分析和判断周界入侵目标的行为,在入侵行为发生时及时发出警报或提供有用信息,协助负责人员处理危机。但目前铁路现场的视频处理方法较为简单,误报率较高,目前仍需较多的人工参与才能完成各种监控任务。
目前,现有技术中的铁路视频监控系统多采用固定摄像头的定点监控,采集到的视频背景基本静止,采用的运动目标检测算法主要包括帧差法、光流法和背景差法等。帧差法比较简单容易实现,并且计算量小实时性好、对硬件要求不高。光流法是利用目标运动的光流矢量具有连续性的特点来检测视频中的运动目标,优势在于不易受背景运动的影响
上述现有技术中的铁路视频监控系统的缺点为:帧差法受光照、天气等外界环境变化的影响较小,但只能检测出图像中运动目标的轮廓信息,其结果不适合直接作为监控系统报警的信息源。光流法的算法复杂度高、实时性差。背景差法需要先对图像序列建立背景模型,然后将当前帧与背景模型做差分运算,对差分图像分析处理获得运动目标。难点主要而在于背景模型的建立和更新。
发明内容
本发明的实施例提供了一种基于动态候选区多尺度图像的铁路周界异物入侵检测方法,以克服现有技术的问题。
为了实现上述目的,本发明采取了如下技术方案。
一种基于动态候选区多尺度图像的铁路周界异物入侵检测方法,包括:
获取铁路周界的监控视频,提取所述监控视频的第1帧到第N帧图像;
采用高斯金字塔算法分别构造第1帧到第N帧图像的多尺度图像;
将第N帧图像的多尺度图像与第N-1帧图像的多尺度图像做差分运算得到二值化图像,根据所述二值化图像提取第N帧图像的动态目标候选区;
将所述第N帧图像的多尺度图像与背景模型图像做差分运算得到二值化图像,根据所述二值化图像得到第N帧图像的入侵目标前景信息;
将第N帧图像的目标动态候选区和入侵目标前景信息进行信息融合,对信息融合的结果进行目标识别分析,输出第N帧图像中的入侵目标特征信息。
优选地,所述的将第N帧图像的多尺度图像与第N-1帧图像的多尺度图像做差分运算得到二值化图像,根据所述二值化图像提取第N帧图像的动态目标候选区,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京交通大学,未经北京交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010565024.7/2.html,转载请声明来源钻瓜专利网。