[发明专利]一种用于复杂多人场景的人体姿态判定方法及系统在审
申请号: | 202010905107.6 | 申请日: | 2020-09-01 |
公开(公告)号: | CN112036324A | 公开(公告)日: | 2020-12-04 |
发明(设计)人: | 张新峰;杨文强;李斌 | 申请(专利权)人: | 扬州大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 朱炳斐 |
地址: | 226009 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 复杂 场景 人体 姿态 判定 方法 系统 | ||
1.一种用于复杂多人场景的人体姿态判定方法,其特征在于,所述方法包括以下步骤:
步骤1,检测人体关键点,并划分关键点集合;
步骤2,提取各集合中人体关键点几何分布的统计特征;
步骤3,根据统计特征判定人体姿态。
2.根据权利要求1所述的用于复杂多人场景的人体姿态判定方法,其特征在于,步骤1所述检测人体关键点,并划分关键点集合,具体过程包括:
步骤1-1,构建样本训练集,该集合包括标注好人体关键点的若干人体图像;
步骤1-2,利用所述样本训练集训练深度卷积神经网络;
步骤1-3,利用训练好的深度卷积神经网络检测待检测人体图像中的关键点;
步骤1-4,划分关键点集合,具体为:
剔除非人体躯干的关键点,包括手部,形成全身关键点集合;
将人体躯干关键点划分为上半身关键点集合、下半身关键点集合、左臂关键点集合和右臂关键点集合;
将下半身关键点继续划分为左腿关键点集合、右腿关键点集合、左侧大腿关键点集合以及右侧大腿关键点集合。
3.根据权利要求1或2所述的用于复杂多人场景的人体姿态判定方法,其特征在于,步骤2所述提取各集合中人体关键点几何分布的统计特征,具体过程包括:
步骤2-1-1,计算各关键点集合的凸包;
步骤2-1-2,从构成凸包的关键点中找出距离最大的两个关键点;
步骤2-1-3,计算所述两个关键点连线沿顺时针方向旋转与水平方向的夹角,作为该凸包的水平角度。
4.根据权利要求3所述的用于复杂多人场景的人体姿态判定方法,其特征在于,步骤3所述根据统计特征判定人体姿态,具体为:根据各关键点集合凸包的水平角度,判定手臂、腿部以及全身的姿态:
假设全身关键点集合凸包的水平夹角为α0;上半身关键点集合凸包水平夹角为α1;下半身关键点集合凸包的水平夹角为α2;左臂关键点集合凸包的水平夹角为α3;右臂关键点集合凸包的水平夹角为α4;左腿关键点集合凸包的水平夹角为α5;右腿关键点集合凸包的水平夹角为α6;左侧大腿关键点集合凸包的水平夹角为α7;右侧大腿关键点集合凸包的水平夹角为α8;
若|tanα3|∈(a3,b3)或|tanα4|∈(a3,b3),则判定为抬臂姿态;若|tanα5|∈(a5,b5)或|tanα6|∈(a5,b5),则判定为踢腿姿态;若|tanα0|∈(a0,b0)、|tanα1|∈(a1,b1)且|tanα2|∈(a2,b2),则判定为站立姿态;若|tanα7|∈[a7,b7]或|tanα8|∈[a7,b7],则判定为蹲坐姿态;若|tanα0|∈[c0,d0]、|tanα1|∈[c1,d1]且|tanα2|∈[c2,d2],则判定为平躺姿态。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于扬州大学,未经扬州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010905107.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:数据格式转换方法及装置
- 下一篇:多摄像头测距的机器人及视觉测距方法