[发明专利]基于网格划分及神经网络的目标物入侵检测方法及装置有效
申请号: | 201710683970.X | 申请日: | 2017-08-11 |
公开(公告)号: | CN107292886B | 公开(公告)日: | 2019-12-31 |
发明(设计)人: | 黄仁裕;高志鹏;张光斌;姚灿荣;尤俊生;庄进发 | 申请(专利权)人: | 厦门市美亚柏科信息股份有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/70;G06K9/62 |
代理公司: | 35218 厦门市精诚新创知识产权代理有限公司 | 代理人: | 何家富 |
地址: | 361000 福建省厦门市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 网格 划分 神经网络 目标 入侵 检测 方法 装置 | ||
本发明涉及基于网格划分及神经网络的目标物入侵检测方法及装置,该方法可包括以下步骤:S1、采集目标物图片样本并对其进行预处理,记录目标物在图片样本中的外接矩形框坐标;S2、将图片样本划分为等分化成W*H个网格,再将其分类为正样本网格、部分样本网格和负样本网格;S3、对网格提取特征热图谱并预测外接矩形框坐标;S4、选择最佳网格比例作为样本训练模型并将其作为最终运用模型;S5、网格融合以得到目标物位置。本发明可以有效检测出起重机的位置,框出在其图片中的坐标点,准确率高。因此在监控起重机等的危险车辆方面具有极大的应用价值。
技术领域
本发明涉及图像识别领域,具体地涉及一种基于网格划分及神经网络的目标物入侵检测方法及装置。
背景技术
在狭义上目标检测算法统称为目标定位算法,但目标检测算法可以同时定位出不同物体的位置。起重机检测属于目标检测的一种,对于人类来说看到并区分与其他物体的区别并不困难,通过对图片中不同颜色模块和对比度的分布以及很容易定位并分类出其中目标物体。对于计算机来说,研究人员也研究了大量的目标检测算法,在图片质量足够清晰、目标足够大时,这些检测算法勉强能够让人满意。传统的目标检测一般使用滑动窗口的框架,利用不同尺寸的滑动窗口提取候选区域,在获选区域中根据经验来提取明显特征,该特征作为区分候选区域中是否存在需要检测的目标。
在目标检测算法领域,最初使用的目标检测算法是利用图像处理的方法,在二值化的基础上找到起重机的大概位置,并把疑似位置的图片与库中相比,得到与起重机的相似度;其次利用传统目标检测算法,采用的是滑动窗口框架,结合传统机器学习方法,检测效果相比图像处理的方法有较大的改善;随着深度学习和卷积网络的广泛使用,基于卷积网络的目标检测算法也开始逐渐出现,进一步提高检测目标在复杂环境下的检测率。
在高压线下,起重机升起吊臂时经常会威胁到电线安全,引起大面积断电。但是传统目标检测算法不能检测出距离较远的起重机,特别是出现在大量树木、建筑物、光照较强时大大降低了算法的鲁棒性。同时,起重机车身有不同颜色,吊杆升起前后也有不同形状,所以使用传统的单一算法不适合用于起重机检测。
发明内容
本发明旨在提供一种基于网格划分及神经网络的目标物入侵检测方法,以解决目前算法无法在各种环境下对诸如起重机的目标物实现准确检测的问题。为此,本发明采用的具体技术方案如下:
基于网格划分及神经网络的目标物入侵检测方法,可包括以下步骤:
S1、采集目标物图片样本并对其进行预处理,记录目标物在图片样本中的外接矩形框坐标;
S2、将图片样本划分为W*H个网格,再将其分类为正样本网格、部分样本网格和负样本网格,其比例记为N1:N2:N3,同时记录正样本网格和部分样本网格中目标物的实际外接矩形框坐标,其中,N1+N2+N3=1;
S3、通过线性加权求和以及非线性降维分别提取正样本网格、部分样本网格、负样本网格的特征热图谱并通过外接矩形框得到目标物在网格中的初始位置,将得到的初始位置、S2中的实际外接矩形框坐标以及相对应的特征热图谱作为输入,通过神经网络对每个网格中目标物的外接矩形框做回归运算,得到每个网格中目标物的预测外接矩形框坐标,其中,特征热图谱每个位置的数值表示每个像素属于目标物的概率,用于区分每个网格中是否包含目标物;
S4、选择最佳网格比例作为样本训练模型并将其作为最终运用模型,具体地,包括:
S41、计算分类误差CLoss,框误差RLoss以及损失Loss,其中,分类误差CLoss表示每个网格被分类正确与否的值,框误差表示目标物的外接矩形框的实际外接矩形框坐标与预测外接矩形框坐标之间的欧式距离,损失Loss=0.5*CLoss+0.5*RLoss;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门市美亚柏科信息股份有限公司,未经厦门市美亚柏科信息股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710683970.X/2.html,转载请声明来源钻瓜专利网。