[发明专利]基于神经网络的多模型协同暴力检测方法及系统有效
申请号: | 202010258824.4 | 申请日: | 2020-04-03 |
公开(公告)号: | CN111582031B | 公开(公告)日: | 2023-07-14 |
发明(设计)人: | 杨晨;张嘉森;滕峰 | 申请(专利权)人: | 深圳市艾伯信息科技有限公司 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V20/40;G06V20/52;G06V10/82;G06N3/045;G06N3/084 |
代理公司: | 深圳市壹壹壹知识产权代理事务所(普通合伙) 44521 | 代理人: | 师勇 |
地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 神经网络 模型 协同 暴力 检测 方法 系统 | ||
本发明实施例公开了一种基于神经网络的多模型协同暴力检测方法及系统,所述方法包括:步骤1:训练神经网络模型A、神经网络模型B及构造运动检测模型;步骤2:接入监控摄像头;步骤3:实时读取下一帧图像;步骤4:对图像进行预处理;步骤5:输入神经网络模型A;步骤6:输入到运动检测模型;步骤7:检查神经网络模型B输入集合中的数据中帧数;步骤8:将数据输入神经网络模型B;步骤9:展示实时暴力检测概率。本发明采用多种模型从不同维度协同解决暴力检测问题,在一定程度上克服了数据集规模的限制,并提高暴力检测的准确率,降低暴力检测的误报率,以及提高暴力检测方法的泛化能力。
技术领域
本发明涉及计算机软件应用技术领域,尤其涉及一种基于神经网络的多模型协同暴力检测方法及系统。
背景技术
在公共场所,暴力行为可能为人民生命和财产安全带来极大威胁,是破坏社会稳定和谐的一个重要影响因素。由于近年来监控摄像头的广泛部署,通过使用计算机视觉技术捕获、识别和分析监控摄像头中的视频流以实现暴力检测成为可能。然而目前的相关方法存在准确率较低、误报率较高、泛化能力较弱等问题。此外,在基于计算机视觉的暴力检测领域,公开数据集(特别是含有真实暴力信息的数据集)较少,也成为了掣肘一些暴力检测方法(如基于深度学习的方法)有效研究和应用的一个关键原因。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于神经网络的多模型协同暴力检测方法及系统,以克服数据集规模的限制,并提高暴力检测的准确率,降低暴力检测的误报率,以及提高暴力检测方法的泛化能力。
为了解决上述技术问题,本发明实施例提出了一种基于神经网络的多模型协同暴力检测方法,包括:
步骤1:训练神经网络模型A、神经网络模型B及构造运动检测模型,其中,神经网络模型A检测单帧图像中的个体,其输出为单帧图像中的人数;神经网络模型B检测一组连续图像中的暴力行为,其输出为一组连续图像中暴力行为存在的概率;运动检测模型检测多帧图像中物体的运动幅度,其输出为物体运动幅度值;
步骤2:接入监控摄像头;
步骤3:实时读取监控摄像头中的下一帧图像;
步骤4:对所读取的图像进行预处理,使该图像成为神经网络模型A输入的标准格式;
步骤5:将该帧图像输入神经网络模型A,神经网络模型A输出该帧图像中的人数,若输出结果大于预设的阈值A,则执行步骤6;否则令暴力检测概率为0,执行步骤9;
步骤6:将该帧图像输入到运动检测模型,若输出结果大于预设的阈值B,则将该帧图像保留至神经网络模型B的输入集合中,并执行步骤7;否则清空神经网络模型B的输入集合,令暴力检测概率为0,执行步骤9;
步骤7:检查神经网络模型B的输入集合,当神经网络模型B的输入集合中视频帧的数量大于预设的阈值C时,则将该集合中的视频帧进行预处理,使其成为神经网络模型B输入的标准格式,然后执行步骤8;否则执行步骤3;
步骤8:将步骤7处理后的数据输入神经网络模型B,神经网络模型B输出该组图像中存在暴力行为的概率;
步骤9:展示实时暴力检测概率。
进一步地,所述步骤1还包括:
子步骤1:构造神经网络模型A的数据集A,使用构造的数据集A训练神经网络模型A;
子步骤2:构造神经网络模型B的数据集B,使用构造的数据集B训练神经网络模型B;
子步骤3:载入神经网络模型A,并设定阈值A,阈值A为触发运动检测模型的临界值;
子步骤4:载入运动检测模型,并设定阈值B,阈值B为存储视频帧到神经网络模型B输入集合的临界值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市艾伯信息科技有限公司,未经深圳市艾伯信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010258824.4/2.html,转载请声明来源钻瓜专利网。