[发明专利]岗位监控的方法、装置及存储介质在审
申请号: | 202110384223.2 | 申请日: | 2021-04-09 |
公开(公告)号: | CN113111768A | 公开(公告)日: | 2021-07-13 |
发明(设计)人: | 左权 | 申请(专利权)人: | 深圳市子瑜杰恩科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G07C1/10 |
代理公司: | 深圳市科冠知识产权代理有限公司 44355 | 代理人: | 梁珣 |
地址: | 518000 广东省深圳市罗湖区东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 岗位 监控 方法 装置 存储 介质 | ||
本申请提供一种岗位监控的方法、装置及存储介质,该方法包括:摄像设备获取目标对象的打卡数据,该打卡数据包含上班时间和下班时间;摄像设备获取该目标对象的位置信息,提取该位置信息对应时间段的视频数据;摄像设备提取视频数据中的t帧图片,将t帧图片执行特征提取操作得到t个固定尺寸的输入数据,将t个输入数据输入循环神经网络执行运算得到t个输出结果,将t个输出结果分别与该目标对象的模板结果执行差计算得到t个差值,提取t个差值中小于差值阈值的n帧图片,若n帧图片均为t帧图片中相邻的图片,确定n帧图片中n个时间,将n个时间的最小值与最大值确定为目标对象的到岗时间。本申请提供的技术方案具有准确性高的优点。
技术领域
本申请涉及互联网监控技术领域,具体涉及一种岗位监控的方法、装置及存储介质。
背景技术
监控系统包含设备的监控,例如摄像头采集监控数据,当然也包含人为的监控,现有的岗位人员是否在岗并无监控,是否在岗更多的是靠打卡等方式来实现,无法实现岗位监控的实际情况,影响了准确性。
发明内容
本申请实施例提供了一种岗位监控的方法及系统,可以通过自动识别的方式来确定岗位监控,提高了准确性。
第一方面,本申请实施例提供一种岗位监控的方法,所述方法应用于摄像设备,所述方法包括;
摄像设备获取目标对象的打卡数据,该打卡数据包含上班时间和下班时间;
摄像设备获取该目标对象的位置信息,提取该位置信息对应时间段的视频数据,该对应时间段为上班时间和下班时间之间的时间段;
摄像设备提取视频数据中的t帧图片,将t帧图片执行特征提取操作得到t个固定尺寸的输入数据,将t个输入数据输入循环神经网络执行运算得到t个输出结果,将t个输出结果分别与该目标对象的模板结果执行差计算得到t个差值,提取t个差值中小于差值阈值的n帧图片,若n帧图片均为t帧图片中相邻的图片,确定n帧图片中n个时间,将n个时间的最小值与最大值确定为目标对象的到岗时间;
其中,2≤n<t,n、t均为整数
第二方面,提供一种岗位监控的装置,所述装置应用于摄像设备,所述装置包括;
获取单元,用于获取目标对象的打卡数据,该打卡数据包含上班时间和下班时间;获取该目标对象的位置信息,
处理单元,用于提取该位置信息对应时间段的视频数据,该对应时间段为上班时间和下班时间之间的时间段;提取视频数据中的t帧图片,将t帧图片执行特征提取操作得到t个固定尺寸的输入数据,将t个输入数据输入循环神经网络执行运算得到t个输出结果,将t个输出结果分别与该目标对象的模板结果执行差计算得到t个差值,提取t个差值中小于差值阈值的n帧图片,若n帧图片均为t帧图片中相邻的图片,确定n帧图片中n个时间,将n个时间的最小值与最大值确定为目标对象的到岗时间;
其中,2≤n<t,n、t均为整数。
第三方面,提供一种计算机可读存储介质,其存储用于电子数据交换的程序,其中,所述程序使得终端执行第一方面提供的方法。
实施本申请实施例,具有如下有益效果:
可以看出,本申请的技术方案通过循环神经网络进行视频图片的快速识别,这样节省计算量,对于人脸识别,其基于单个图片进行计算识别,例如百度人脸识别算法,其需要经过多个卷积层的运算,全连接的运算以及激活运算才能够实现对人脸识别的确定,而对于视频数据,其图片的数量多,若每帧图片均进行人脸识别,那么其计算量会非常的大,因此,本申请基于视频数据的特点,因为其属于特定位置的特定的视频数据,这样本申请抽取t帧图片,然后通过RNN(循环神经网络)的方式将一些背景的特征计算保留以增加可靠性,然后与模板图片进行比对,这样即能够快速的识别出来t帧图片中的n帧图片,进而实现对岗位的到岗时间进行初步的监控,并且减少计算量,提高岗位的时间的快速统计,提高了准确性。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市子瑜杰恩科技有限公司,未经深圳市子瑜杰恩科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110384223.2/2.html,转载请声明来源钻瓜专利网。