[发明专利]一种人体行为实时识别方法、系统、装置及存储介质在审
申请号: | 202110654270.4 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113408390A | 公开(公告)日: | 2021-09-17 |
发明(设计)人: | 曾碧;姚壮泽 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 黎扬鹏 |
地址: | 510000 广东省广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 人体 行为 实时 识别 方法 系统 装置 存储 介质 | ||
1.一种人体行为实时识别方法,其特征在于,包括:
通过双目摄像头获取第一图像,所述第一图像为包含人体的RGB图像;
利用YOLOv3网络模型对所述第一图像进行处理,得到人体框图像;
将所述人体框图像输入AlphaPose网络模型,得到多个人体骨骼点;
将多个所述人体骨骼点输入行为识别网络进行识别,得到行为类别结果,所述行为类别包括摔倒、坐着、站着和行走行为。
2.根据权利要求1所述的一种人体行为实时识别方法,其特征在于,所述利用YOLOv3网络模型对所述第一图像进行处理,得到人体框图像之后,所述方法还包括:
根据所述人体框图像,获取人体框中心点坐标;
根据所述人体框中心点坐标,获取人体空间位置坐标;
根据所述人体空间位置坐标,判断人体位置是否位于地上。
3.根据权利要求2所述的一种人体行为实时识别方法,其特征在于,所述根据所述人体空间位置坐标,判断人体位置是否位于地上这一步骤,包括:
根据所述人体空间位置坐标,计算第一高度,所述第一高度为人体距离地面的高度;
若所述第一高度小于第一阈值,确定人体位置是位于地上。
4.根据权利要求3所述的一种人体行为实时识别方法,其特征在于,所述第一高度通过以下公式计算得到:
式中,h表示第一高度,hc表示双目摄像头距离地面的距离,d表示人体距离双目摄像头的距离,其中,(x,y,z)表示人体空间位置坐标,a表示双目摄像头在竖直方向上的倾斜角度。
5.根据权利要求1所述的一种人体行为实时识别方法,其特征在于,所述将所述人体框图像输入AlphaPose网络模型,得到多个人体骨骼点这一步骤,包括:
将所述人体框图像输入AlphaPose网络模型,得到多个人体关键关节点;
对多个所述人体关键关节点进行筛选,得到多个人体骨骼点。
6.根据权利要求1所述的一种人体行为实时识别方法,其特征在于,所述将所述人体框图像输入AlphaPose网络模型,还获得每个人体骨骼点对应的骨骼点位置和骨骼点置信度;所述将多个所述人体骨骼点输入行为识别网络进行识别,得到行为类别结果这一步骤,包括:
将每个人体骨骼点对应的所述骨骼点位置和骨骼点置信度输入第一全连接层,得到第一输出结果;
将所述第一输出结果输入第二全连接层,得到第二输出结果;
将所述第二输出结果输入第三全连接层,得到第三输出结果;
将所述第三输出结果输入第四全连接层,得到第四输出结果;
将所述第四输出结果输入RELU层,得到第五输出结果;
将所述第五输出结果输入dropout层,得到行为类别结果。
7.根据权利要求1所述的一种人体行为实时识别方法,其特征在于,所述方法还包括对所述行为识别网络进行训练,包括:
构建训练集,所述训练集包括Le2i数据集和ntu-rgbd行为识别数据集;
将所述训练集输入所述行为识别网络中,以对所述行为识别网络进行训练。
8.一种人体行为实时识别系统,其特征在于,包括:
获取模块,用于通过双目摄像头获取第一图像,所述第一图像为包含人体的RGB图像;
处理模块,用于利用YOLOv3网络模型对所述第一图像进行处理,得到人体框图像;
第一输入模块,用于将所述人体框图像输入AlphaPose网络模型,得到多个人体骨骼点;
第二输入模块,用于将多个所述人体骨骼点输入行为识别网络进行识别,得到行为类别结果,所述行为类别包括摔倒、坐着、站着和行走行为。
9.一种人体行为实时识别装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-7任一项所述的方法。
10.计算机可读存储介质,其特征在于,其上存储有处理器可执行的程序,所述处理器可执行的程序在被处理器执行时用于实现如权利要求1-7任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110654270.4/1.html,转载请声明来源钻瓜专利网。