[发明专利]用于机场航站楼场景的安全分析装置方法及装置在审
申请号: | 202210802751.X | 申请日: | 2022-07-07 |
公开(公告)号: | CN115035395A | 公开(公告)日: | 2022-09-09 |
发明(设计)人: | 袁潮;肖占中;其他发明人请求不公开姓名 | 申请(专利权)人: | 北京拙河科技有限公司 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V20/40;G06V40/20;G06V10/82;G06V10/774;G06V10/764;G06T7/90;G06T7/246;G06T5/40;G06N3/08;G06N3/04 |
代理公司: | 北京君莫知识产权代理事务所(普通合伙) 11715 | 代理人: | 王凝 |
地址: | 100000 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 机场 航站 场景 安全 分析 装置 方法 | ||
1.一种用于机场航站楼场景的安全分析方法,其特征在于,包括如下步骤:
基于视频图像,得到运动目标;
获取所述运动目标在预设时长内的运动特征,并基于所述运动特征生成动作集;
基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
获取所述运动目标在预设时长内的场景集;
基于所述场景集和所述目标运动类型,得到目标场景;
基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
2.如权利要求1所述的方法,其特征在于,所述基于目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度的步骤具体包括:
获取所述目标场景的对应的数据模型;
基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
3.如权利要求2所述的方法,其特征在于,在所述获取所述目标场景的对应的数据模型的步骤之前,所述方法还包括:
收集所述目标场景下的动作分析集合,并划分为训练集和验证集;
对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码,得到模型视频;
从所述模型视频中检测出感兴趣的模型运动目标,并对感兴趣的运动目标进行模型的构建,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;
使用验证集进行模型运动目标的模型的准确率预测,以得到数据模型。
4.如权利要求1所述的方法,其特征在于,所述获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集的步骤具体包括:
收集动作的第一图像样本;
基于所述第一图像样本,制作卷积神经网络训练所需的第一数据集;
搭建CNN算法的深度神经网络,并设置相应参数;
基于数据集对该神经网络进行训练,得出CNN动作训练模型;
基于所述视频图像,利用所述CNN动作训练模型对在所述预设时长内的所述运动特征进行识别,生成所述动作集。
5.如权利要求1所述的方法,其特征在于,所述获取所述运动目标在预设时长内的场景集的步骤具体包括:
收集场景的第二图像样本;
基于所述第二图像样本,制作卷积神经网络训练所需的第二数据集;
搭建CNN算法的深度神经网络,并设置相应参数;
基于数据集对该神经网络进行训练,得出CNN场景训练模型;
基于所述视频图像,利用所述CNN场景训练模型对所述视频图像进行识别,生成所述场景集。
6.如权利要求1所述的方法,其特征在于,所述动作集包括至少一个待分类的运动类型;
所述基于所述动作集,得到所述运动目标在发生时段内的目标运动类型的步骤具体包括:
设置预设运动类型,
若所述待分类的运动类型属于所述预设运动类型,则标记所述待分类的运动类型为所述目标运动类型,并且记录所述待分类的运动类型的发生时段。
7.一种用于机场航站楼场景的安全分析装置,其特征在于,包括:
识别模块:基于视频图像,得到运动目标;
第一获取模块:获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
第一分析模块:基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
第二获取模块:获取所述运动目标在预设时长内的场景集;
第二分析模块,基于所述场景集和所述目标运动类型,得到目标场景;
第三分析模块,基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
8.如权利要求7所述的装置,其特征在于是,所述第三分析模块进一步适于:
获取所述目标场景的对应的数据模型;
基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京拙河科技有限公司,未经北京拙河科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210802751.X/1.html,转载请声明来源钻瓜专利网。