[发明专利]基于深度学习的业财数据处理方法及系统在审
申请号: | 202210673807.6 | 申请日: | 2022-06-14 |
公开(公告)号: | CN115171038A | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 丁伟斌;金绍君;罗哲珺;潘军;陈倩;金春兰;吴洁;陈思琪;汤佳璐 | 申请(专利权)人: | 国网浙江省电力有限公司;国网浙江省电力有限公司湖州供电公司;浙江华云信息科技有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/40;G06V40/10;G06V10/82;G06T7/73;G06Q10/10 |
代理公司: | 杭州华鼎知识产权代理事务所(普通合伙) 33217 | 代理人: | 沈俭因 |
地址: | 310007*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 数据处理 方法 系统 | ||
1.基于深度学习的业财数据处理方法,其特征在于,所述方法包括:
通过监控系统获取工作人员工作的视频数据;
提取所述视频数据中的若干帧视频图像;
对所述视频图像进行预处理得到图像序列;
通过预构建的深度目标检测模型对所述图像序列中的人员目标和检修设备目标进行检测,得到人员目标身份信息、设备编码信息以及人员轨迹信息;
根据所述人员轨迹信息确定检修作业起止时刻信息;
将所述人员目标身份信息、设备编码信息以及检修作业起止时刻信息生成电子工作票。
2.根据权利要求1所述的基于深度学习的业财数据处理方法,其特征在于,所述通过监控系统获取工作人员工作的视频数据包括:
通过监控系统周期性获取工作人员工作的视频数据。
3.根据权利要求1所述的基于深度学习的业财数据处理方法,其特征在于,所述对所述视频图像进行预处理得到图像序列包括:
对所述视频图像进行降噪增强处理;
按照每个视频图像的标注时间进行排序得到图像序列。
4.根据权利要求1所述的基于深度学习的业财数据处理方法,其特征在于,所述通过预构建的深度目标检测模型对所述图像序列中的人员目标和检修设备目标进行检测,得到人员目标身份信息、设备编码信息以及人员轨迹信息包括:
将所述图像序列输入到预构建的深度目标检测模型中,通过卷积层对所述图像序列依次进行特征提取,得到第一人员深度特征、第二人员深度特征和设备深度特征;
将所述第一人员深度特征和设备深度特征分别输入到目标检测网络中得到人员身份信息和设备编码信息;
将所述第二人员深度特征输入到目标跟踪网络得到人员轨迹信息。
5.根据权利要求1所述的基于深度学习的业财数据处理方法,其特征在于,所述根据所述人员轨迹信息确定检修作业起止时刻信息包括:
将所述人员轨迹信息中的第一帧图像的标注时刻确定为检修作业开始时刻;
将所述人员轨迹信息中的最后一帧图像的标注时刻确定为检修作业停止时刻。
6.根据权利要求1所述的基于深度学习的业财数据处理方法,其特征在于,所述将所述人员目标身份信息、设备编码信息以及检修作业起止时刻信息生成电子工作票包括:
获取电子工作票模板;
将所述人员目标身份信息、设备编码信息以及检修作业起止时刻信息按照字段分别添加到所述电子工作票模板的相应位置;
填写完成后,生成电子工作票。
7.基于深度学习的业财数据处理系统,其特征在于,所述系统包括:
获取单元,用于通过监控系统获取工作人员工作的视频数据;
提取单元,用于提取所述视频数据中的若干帧视频图像;
预处理单元,用于对所述视频图像进行预处理得到图像序列;
目标检测单元,用于通过预构建的深度目标检测模型对所述图像序列中的人员目标和检修设备目标进行检测,得到人员目标身份信息、设备编码信息以及人员轨迹信息;
确定单元,用于根据所述人员轨迹信息确定检修作业起止时刻信息;
生成单元,用于将所述人员目标身份信息、设备编码信息以及检修作业起止时刻信息生成电子工作票。
8.根据权利要求7所述的基于深度学习的业财数据处理系统,其特征在于,所述目标检测单元包括:
特征提取单元,用于将所述图像序列输入到预构建的深度目标检测模型中,通过卷积层对所述图像序列依次进行特征提取,得到第一人员深度特征、第二人员深度特征和设备深度特征;
信息识别单元,用于将所述第一人员深度特征和设备深度特征分别输入到目标检测网络中得到人员身份信息和设备编码信息;
轨迹跟踪单元,用于将所述第二人员深度特征输入到目标跟踪网络得到人员轨迹信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网浙江省电力有限公司;国网浙江省电力有限公司湖州供电公司;浙江华云信息科技有限公司,未经国网浙江省电力有限公司;国网浙江省电力有限公司湖州供电公司;浙江华云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210673807.6/1.html,转载请声明来源钻瓜专利网。