[发明专利]一种事件检测方法及装置有效
申请号: | 202210815231.2 | 申请日: | 2022-07-11 |
公开(公告)号: | CN114913470B | 公开(公告)日: | 2022-10-28 |
发明(设计)人: | 刘智辉;余言勋;杜治江;牛中彬;黄宇;杨雪峰 | 申请(专利权)人: | 浙江大华技术股份有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/54;G06N3/08 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 赵凯莉 |
地址: | 310053 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 事件 检测 方法 装置 | ||
本申请涉及图像信息处理技术领域,特别涉及一种事件检测方法及装置,用于解决现有技术中目标信息识别不准确导致事件检测结果准确率低的问题。该方法为:识别待检测视频中的事件,获得所述事件的事件类型;根据所述事件类型确定所述待检测视频中事件的事件位置,所述事件位置包括所述事件的事件发生区域以及电子围栏区域;事件发生区域用于表征事件发生在采集设备所拍摄空间的三维空间位置,电子围栏区域为在事件发生区域基础上扩大设定大小的区域;根据所述待检测视频中的所述事件发生区域,识别所述事件的参与对象,并根据所述待检测视频中的所述电子围栏区域,识别所述事件的目击对象。
技术领域
本申请涉及图像信息处理技术领域,尤其涉及一种事件检测方法及装置。
背景技术
随着当前社会对社会治安、城市大脑等智能化技术的重视,对于监控视频画面中的事件理解或检测变得尤为重要。目前对于事件检测方法是通过目标确定事件的,即先确定待检视频包括的所有目标信息,进而通过视频包括的所有目标信息确定待检测视频中的事件。然而视频包括的目标信息中,有些目标是与事件检测无关的,因此通过目标确定事件的检测方法一定程度上降低了事件的检测效率。此外,当目标信息识别不准确时,会导致事件检测结果的准确率降低。
发明内容
本申请实施例提供了一种事件检测方法及装置,用以解决现有技术中目标信息识别不准确导致事件检测结果准确率低的问题。
第一方面,本申请实施例提供了一种事件检测方法,包括:
识别待检测视频中的事件,获得所述事件的事件类型;根据所述事件类型确定所述待检测视频中事件的事件位置,所述事件位置包括所述事件的事件发生区域以及电子围栏区域;所述事件发生区域用于表征所述事件发生在采集设备所拍摄空间的三维空间位置,所述电子围栏区域为在所述事件发生区域基础上扩大设定大小的区域;根据所述待检测视频中的所述事件发生区域,识别所述事件的参与对象,并根据所述待检测视频中的所述电子围栏区域,识别所述事件的目击对象。
基于上述方案,用事件确定目标而非用目标确定事件,可以筛选事件的参与对象和与事件目击对象,为事件调查与分析提供可靠依据。对事件发生后电子围栏区域内的目标进行识别,筛选参与对象或目击对象,可以减少目标检测的工作量,并提高事件检测的检测效率。此外,只对事件位置进行检测,可以提高目标检测的检测精度。
一种可能的实现方式中,所述方法还包括:确定所述待检测视频中事件的时间边界,所述时间边界用于表述所述待检测视频中所发生事件的起始时间和结束时间;所述根据所述事件类型确定所述待检测视频中事件的事件位置,包括:根据所述时间边界确定所述待检测视频中的视频段;根据所述事件类型确定所述视频段中所述事件的事件位置。
基于上述方案,在进行事件检测时,可以直接获得事件的起始时间与结束时间,并通过事件类型、事件的起始时间与结束时间可以进一步确定事件位置。
一种可能的实现方式中,所述识别待检测视频中的事件,以及确定所述待检测视频中所述事件的时间边界,包括:将所述待检测视频作为第一神经网络的输入,以通过所述第一神经网络输出所述事件类型以及所述时间边界;所述根据所述事件类型确定所述待检测视频中事件的事件位置,包括:将所述待检测视频、所述事件类型以及所述时间边界作为第二神经网络的输入,以通过所述第二神经网络输出所述事件位置;所述根据所述待检测视频中的所述事件发生区域,识别所述事件的参与对象,并根据所述待检测视频中的所述电子围栏区域,识别所述事件的目击对象,包括:将所述待检测视频、所述事件位置作为第三神经网络的输入,以通过所述第三神经网络输出所述事件的参与对象以及目击对象。
一种可能的实现方式中,所述事件发生区域通过所述事件发生的立方体空间映射到所述待检测视频包括的视频帧中的像素位置指示;所述事件发生区域满足如下公式所示的条件:
;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大华技术股份有限公司,未经浙江大华技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210815231.2/2.html,转载请声明来源钻瓜专利网。