[发明专利]一种烟雾检测方法在审
申请号: | 201910541062.6 | 申请日: | 2019-06-21 |
公开(公告)号: | CN110322659A | 公开(公告)日: | 2019-10-11 |
发明(设计)人: | 应艳丽;贠周会;谢吉朋;叶超;王欣欣;吴斌;王旭;黄江林;赖泽伟 | 申请(专利权)人: | 江西洪都航空工业集团有限责任公司 |
主分类号: | G08B17/12 | 分类号: | G08B17/12;G06K9/00;G06K9/62 |
代理公司: | 南昌新天下专利商标代理有限公司 36115 | 代理人: | 施秀瑾 |
地址: | 330000 江西省*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 烟雾 烟雾检测 视频流 卷积神经网络 视频 标定 视频图像预处理 预处理 读取 运动目标检测 前端摄像头 图像预处理 帧视频图像 解码 背景建模 目标分类 视频图像 视频文件 位置记录 重要意义 差分法 图像块 误检率 准确率 判定 集合 预警 检测 应用 | ||
本发明公开了一种烟雾检测方法,包括以下步骤:视频流接入:通过从前端摄像头设备或者本地视频文件中读取视频流,对接入的视频流进行解码,获取到帧视频图像;视频图像预处理:使用图像预处理技术对获取到的视频图像进行预处理,以提升后期烟雾检测的准确率;基于背景建模的运动目标检测;深度卷积神经网络目标分类;视频烟雾目标标定:对判定为烟雾的图像块进行位置记录,然后在视频中标定烟雾的区域。本发明方法,集合了深度卷积神经网络和背景差分法的优点,从而实现了对烟雾的准确和实时的检测并定位,有效降低了误检率,还能实时对视频中烟雾进行预警,具有重要意义和应用价值。
技术领域
本发明涉及视觉检测技术领域,具体是一种烟雾检测方法。
背景技术
人类长期跟火灾进行斗争,积累了大量防火和灭火的经验,逐步掌握了火灾的燃烧机理、燃烧条件和发展过程,创造了各种各样的防火、灭火方法。根据烟雾、气体、温度等物理量变化,采用感温、感烟、感光、气体探测以及复合式探测而设计了各式各样的烟雾探测器。但是烟雾探测器由于自身的特性而受到空间的限制,存在以下弊端:1)需要烟雾到达后才能探测;2)在大空间室内环境下,烟雾上升到一定高度后会被周围的空气冷却,甚至停留空中不在上升,导致传统的烟雾检测器失去了作用;3)在室外环境,烟雾探测器无法检测大范围,而且烟雾易被气流吹散,烟雾到达不了烟雾探测器。故而近年来,火灾的探测技术正逐渐朝着视频图像处理的趋势发展。
由于火灾的特点在早期通常以烟雾的形势表现出来,针对烟雾检测的技术得到许多专家的积极研究。基于模式识别的烟雾检测方法采用人工智能技术实现对监控区域的实时探测,从而能够更准确的定位烟雾发生地点,避免火灾发生更多地延伸。相比烟雾探测器,具有监控范围广、监控距离远、反应快速等显著的特点。
但是,现有技术中对视频图像进行帧差法检测运动目标,并对运动目标的面积、颜色、方向或者形状等特征进行特征检测或者是特征融合检测,这种基于特征的检测方法受限于烟雾的形态,而烟雾的形态中颜色、形状、面积、方向又很不稳定,难以提取其特征,导致检测准确率不高。因此,有必要找到一种新的烟雾检测方法,能够在大数据量的视频数据中实时检测到烟雾已经成为亟待解决的技术问题。
发明内容
为解决上述问题,本发明提供一种烟雾检测方法。
本发明采用的技术方案是:一种烟雾检测方法,包括以下步骤:
S1、训练烟雾分类检测模型
S11、获取正样本图片集和负样本图片集并保存到相应标记文件中;
S12、对步骤S11中的正样本图片和负样本图片进行尺度变换,统一尺寸;
S13、将统一尺寸后的正负样本图片集中的图片数据和标记文件同时输入到深度卷积神经网络架构中进行训练,得到训练后的烟雾分类检测模型,根据上一次训练的结果,调整优化深度卷积神经网络训练参数设置,重新训练,直至得到最优的烟雾分类检测模型;
S2、接入视频流,获取视频帧图像;
S3、读取步骤S2中的视频帧图像,进行预处理;
S4、对步骤S3中预处理后的视频帧图像使用背景建模方法检测前景运动目标,提取出所有的候选目标图像块;
S5、将步骤S4中的候选目标图像块作为数据源输入到深度卷积神经网络架构中,以步骤S1训练好的最优烟雾分类检测模型为基础参数,对候选目标图像块进行烟雾和非烟雾的分类检测,若某图像块的输出结果被判定为烟雾类别,则认为该图像块是烟雾;
S6、对步骤S5中判定为烟雾的图像块进行位置记录,然后在原始视频图像中使用矩形边界框标记视频中出现的烟雾区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江西洪都航空工业集团有限责任公司,未经江西洪都航空工业集团有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910541062.6/2.html,转载请声明来源钻瓜专利网。