[发明专利]一种基于深度学习的火焰识别方法在审
申请号: | 202310239911.9 | 申请日: | 2023-03-13 |
公开(公告)号: | CN116385776A | 公开(公告)日: | 2023-07-04 |
发明(设计)人: | 于天河;李雨霖 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 刘强 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 火焰 识别 方法 | ||
1.一种基于深度学习的火焰识别方法,其特征在于包括以下步骤:
步骤一:获取图像序列;
步骤二:利用ViBe算法图像序列进行处理,具体步骤为:
步骤二一:利用图像序列第一帧图像初始化背景模型,并利用初始化后的背景模型对后续的图像序列进行前景目标分割;
步骤二二:计算前景目标包含的像素数目,并根据像素数目由大到小进行排序;
步骤二三:选取排序第一的像素数目countmax对应的前景目标作为运动目标Tatget,并获取该前景目标的最大宽度TD以及它与其他前景目标的距离Di,即它与其他连通域的距离;
步骤二四:设定阈值Tcount为1/10countmax,按排序对所有前景目标进行筛选,具体过程为:
若前景目标包含像素数小于阈值Tcount,且该前景目标与运动目标Tatget的距离大于最大前景目标宽度TD,则将其记为背景目标,对其进行滤除操作,否则将该目标记为运动目标;
步骤二五:根据时间采样因子更新背景模型;
步骤三:利用分类网络对运动目标进行火焰识别。
2.根据权利要求1所述的一种基于深度学习的火焰识别方法,其特征在于所述分类网络为GoogleNet网络。
3.根据权利要求2所述的一种基于深度学习的火焰识别方法,其特征在于所述GoogleNet网络为改进的GoogleNet网络,所述GoogleNet网络的改进步骤具体为:
首先将ReLU激活函数替换为PReLU激活函数,最后将注意力机制引入GoogleNet网络的Inception模块。
4.根据权利要求3所述的一种基于深度学习的火焰识别方法,其特征在于所述步骤二五之前还包括重影检测步骤,重影检测具体为:
对步骤二四得到的运动目标进行重影检测,若出现重影,则通过调整时间采样因子消除重影。
5.根据权利要求4所述的一种基于深度学习的火焰识别方法,其特征在于所述通过调整时间采样因子消除重影具体为:
为背景模型设置一个动态的时间采样因子λ和一个计量重影可能性的计数器pghost,pghost初始为0,在当前像素被判断为前景像素时,将此像素与前一帧相同位置像素点的值进行比较,若两者的欧式距离不小于预设的阈值Eth,则将pghost的值加1,否则将pghost置0;
当pghost大于预设值Tghost时,认为当前像素为重影像素,将其更新到背景模型中;
得到所有重影像素后,计算重影像素连通域的最小外接矩形,即重影区域,然后将重影区域内像素的时间采样因子设置为原时间采样因子的二分之一。
6.根据权利要求1所述的一种基于深度学习的火焰识别方法,其特征在于所述初始化背景模型的具体步骤为:
对第一帧图像的每一个像素点p(x),从p(x)的8邻域中随机选择像素点作为样本放入p(x)对应的样本模型M0(x)中,完成对p(x)的初始化;
第一帧图像中所有像素点对应的样本模型初始化后,即完成背景模型的初始化。
7.根据权利要求5所述的一种基于深度学习的火焰识别方法,其特征在于:当阈值Tcount的值小于10像素时,将阈值设为10。
8.根据权利要求1所述的一种基于深度学习的火焰识别方法,其特征在于所述步骤二四中筛选表示为:
其中,Ai表示当前前景目标,countA表示当前前景目标的像素数目,ATatget表示当前前景目标为运动目标,Anoise表示当前前景目标为需要滤除的背景目标。
9.根据权利要求5所述的一种基于深度学习的火焰识别方法,其特征在于所述通过调整时间采样因子消除重影表示为:
其中,pghost表示当前像素为重影像素的可能性,pfore表示当前像素是否为前景像素,pfore=1表示当前像素被判别为前景像素,pfore=0表示当前像素被判别为背景像素;E(x)表示当前像素与前一帧像素的欧式距离与阈值Eth比较的结果,当欧式距离大于或等于Eth时E(x)=1,否则E(x)=0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310239911.9/1.html,转载请声明来源钻瓜专利网。