[发明专利]一种感知工人安全状况的方法有效
申请号: | 202310007925.8 | 申请日: | 2023-01-04 |
公开(公告)号: | CN116310943B | 公开(公告)日: | 2023-09-19 |
发明(设计)人: | 余雅滢;陈昌浩;邱生顺;陈庆锋;王建东;张晨;陈云鹏 | 申请(专利权)人: | 三峡高科信息技术有限责任公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/56;G06V10/52;G06V10/80;G06V10/82;G06V40/20;G06N3/04;G06N3/08;G06V10/62 |
代理公司: | 北京冠和权律师事务所 11399 | 代理人: | 郑延斌 |
地址: | 100000 北京市通州*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 感知 工人 安全 状况 方法 | ||
本发明提供了一种感知工人安全状况的方法,包括S1:采集多个历史实时建筑工地视频并基于开源动作识别数据集,构建工人安全状况数据集;S2:基于工人安全状况数据集,对待训练任务神经网络MMY进行训练获得最终多任务神经网络MMY;S3:根据最终多任务神经网络MMY对当前实时建筑工地视频进行检测,获得输出结果,基于输出结果,进行多任务推理,获得各个子任务的推理结果。本发明提出的多任务神经网络MMY通过共享表示信息,同时学习多个相关任务,使这些任务的检测效果均优于仅训练单一任务的情况,可以在一定程度上缓解模型的过拟合,提高模型的泛化能力。其次,并行的安全状况检测优于串行的安全状况检测,可以在一定程度上提升算法推理效率。
技术领域
本发明涉及工人安全状况识别技术领域,特别涉及一种感知工人安全状况的方法。
背景技术
目前,现有的深度神经网络对工人安全状况的检测维度较为单一,其通常只专注于单一任务目标,而忽略了其它安全状况信息的检测,而这些被忽略的安全状况信息可能会促使取得更优的安全状况检测效果。
其次,现有技术处理多维度的建筑工地人员安全状况检测时,多采取多步骤检测的方式,而不是通过多任务神经网络并行检测,这导致了检测过程繁琐、复杂、推理效率低。
发明内容
本发明提供一种感知工人安全状况的方法,提出了一种有效且高效的感知工人安全状况的多任务神经网络MMY,可同时执行工人个人防护用品穿戴检测、工地危险区域检测以及工人危险动作识别任务。首先,采集实时建筑工地视频并辅助结合现有开源动作识别数据集,制作相应的防护用品类别、危险区域和动作类别的标签,从而构建工人安全状况数据集;其次,构建基于图像和视频分类以及目标检测的统一架构MViTv2和单阶段目标检测算法YOLOv7的感知工人安全状况的多任务神经网络MMY,通过MMY同时学习个人防护用品特征、工地危险区域特征以及工人危险动作特征三类相关任务,以实现工人的防护用品穿戴检测、危险区域检测以及危险动作检测;最后,结合多维度的安全状况检测信息,进行推理决策,判断是否需要对特定的建筑工地工人进行安全预警,以及时发现险情。
本发明提供一种感知工人安全状况的方法,包括:
S1:采集多个历史实时建筑工地视频并基于开源动作识别数据集,构建工人安全状况数据集;
S2:基于工人安全状况数据集,对待训练任务神经网络MMY进行训练获得最终多任务神经网络MMY;
S3:根据最终多任务神经网络MMY对当前实时建筑工地视频进行检测,获得输出结果,基于输出结果,进行多任务推理,获得各个子任务的推理结果。
优选的,S1:采集多个历史实时建筑工地视频并基于开源动作识别数据集,构建工人安全状况数据集,包括:
获取多个历史实时建筑工地视频,基于预设时间周期在历史实时建筑工地视频截取视频片段,建立视频数据集;
根据开源动作识别数据集,识别工人动作,确定视频数据集中各个视频片段对应的工人的安全状况;
基于所述安全状况,确定对应历史实时建筑工地视频对应的安全状态标签,构建工人安全状况数据集;
其中,安全状态标签包括防护用品类别、危险区域和动作类别多种标签。
优选的,S2:基于工人安全状况数据集,对待训练任务神经网络MMY进行训练获得最终多任务神经网络MMY,包括:
获取工人安全状况数据集中的历史实时建筑工地视频,对待训练多任务神经网络MMY进行训练,初级多任务神经网络MMY;
基于所述初级多任务神经网络MMY,对所述历史实时建筑工地视频进行检测,获得检测结果;
当检测结果与历史实时建筑工地视频携带的安全状态标签一致时,判定初级多任务神经网络MMY为最终多任务神经网络MMY。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三峡高科信息技术有限责任公司,未经三峡高科信息技术有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310007925.8/2.html,转载请声明来源钻瓜专利网。