[发明专利]一种固定环境内异常物品实时检测方法在审
申请号: | 202010520863.7 | 申请日: | 2020-06-12 |
公开(公告)号: | CN111709345A | 公开(公告)日: | 2020-09-25 |
发明(设计)人: | 田文龙;利节 | 申请(专利权)人: | 重庆电政信息科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 400714 重庆市渝北区*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 固定 环境 异常 物品 实时 检测 方法 | ||
本发明公开了提供一种固定环境内异常物品实时检测方法,能够对固定环境中的正常物品和异常物品进行识别。建立固定环境内正常物品数据库,运用目标识别算法将固定环境中所有物体进行检测,设计感知哈希算法对检测物品和正常物品数据库中物品进行一一比对,获得相似度值。当相似度值低于设定阈值时,即视为异常物品,并加入异常物品数据库。本发明的优点在于:可以检测到场景中本来不应该出现的异常物品,极大地解放了人力,提高了人们的生活质量。对于环境中的物品,可以实时动态监测,加快了预警,提高安全性能。
技术领域
本发明涉及异常物品实时监测方法,属于深度强化学习技术领域。
背景技术
通常,对于某一特定的环境中,异常物品的出现容易引发不安全性。比如消防通道中的占道物品、地铁站内的异常物品等,对异常物品的实时检测具有重要的社会意义和经济价值。
然而,在现有的监控系统中,主要还是依靠视频监控系统,有工作人员进行人眼识别,虽然已经存在一些人体行为的异常检测及预警方式,但是地铁站内的各类异常也可能是由其他原因导致的;由此可见,现有的检测和预警方式无法让控制中心直观的获取各类信息,同时各类应急方案也无法进行预演,无法验证应急方案的准确性。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种固定环境内异常物品实时检测方法,能够对固定环境中的正常物品和异常物品进行识别。建立固定环境内正常物品数据库,运用目标识别算法将固定环境中所有物体进行检测,设计感知哈希算法对检测物品和正常物品数据库中物品进行一一比对,获得相似度值。当相似度值低于设定阈值时,即视为异常物品,并加入异常物品数据库。具体方案如下:
标记原始固定环境内的正常物品,并将其从原图片中取出放入正常物品数据库。
初始化标定:标记原始固定环境内的正常物品,采用的方式为人工标定主导,自动检测辅助的方式。当模型首次运行时,采用人工标记的方式标记已有的固定物品,框定物品的区域,保存到正常物品数据库。随后模型对输入的视频帧进行检测,输出模型识别的目标,框定到图片中,由人工继续操作,确认模型框定的区域为正常物品,并且添加到正常物品数据库。
动态标定:随着模型的运行,环境可能存在细微的变化,每当因环境变化产生物品增加或者减少的情况,可在模型检测出异常的情况下,进行人工干预,修正正常物品数据库。
利用VOC数据集训练yolo v3算法模型。
Pascal VOC作为基准数据集之一,在对象检测、图像分割网络对比实验与模型效果评估中被频频使用。本发明采用Pascal VOC 2012对模型进行训练,主要使用的数据为Main(存放的是图像物体识别的数据,总共分为20类)和Segmentation(存放的是可用于分割的数据)两类数据来训练Yolo v3目标识别模型。
在基本的图像特征提取方面,YOLO3采用了称之为Darknet-53的网络结构(含有53个卷积层),它借鉴了残差网络residual network的做法,在一些层之间设置了快捷链路(shortcut connections)。YOLOv3一共有9个Anchor,不过被平均分在了3个特征层中,这也实现了多尺度检测。
对预测的中心坐标做损失:
该等式计算了相对于预测的边界框位置(x,y)的loss数值。该函数计算了每一个网格单元(i=0,...,S2)的每一个边界框预测值(j=0,...,B)的总和。λcoord表示做x相对坐标回归的系数。的含义为,如果网网格单元i中存在目标,则第j个边界框预测值对该预测有效,的值为1。如果网格单元i中不不存在目标,的值为0。
对边界框的宽高做损失:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆电政信息科技有限公司,未经重庆电政信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010520863.7/2.html,转载请声明来源钻瓜专利网。