[发明专利]人体行为识别方法及电子设备有效
申请号: | 201910777050.3 | 申请日: | 2019-08-22 |
公开(公告)号: | CN110472612B | 公开(公告)日: | 2021-09-07 |
发明(设计)人: | 陈维强;张玉;高雪松 | 申请(专利权)人: | 海信集团有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 张晓霞;刘芳 |
地址: | 266071 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人体 行为 识别 方法 电子设备 | ||
1.一种人体行为识别方法,其特征在于,包括:
对采集的视频数据片段进行三维姿态估计,得到所述视频数据片段中每个人的三维骨骼点坐标,所述视频数据片段包括深度数据流和彩色数据流;
选取所述视频数据片段中的两个人,根据两个人的重心距离和运动矢量确定出两个人的动作类型,所述动作类型为单人动作或双人交互动作,所述重心距离和运动矢量根据每个人的三维骨骼点坐标计算得到;
根据确定出的动作类型,将所述动作类型对应的每个人的三维骨骼点坐标输入到动作模型中进行动作识别,得到动作识别结果,其中,不同的动作类型对应的动作模型不同。
2.根据权利要求1所述的方法,其特征在于,所述对采集的视频数据片段进行三维姿态估计,得到所述视频数据片段中每个人的三维骨骼点坐标,包括:
通过openpose算法对彩色数据流进行二维姿态估计,得到二维姿态估计后的结果;
将深度数据流与所述二维姿态估计后的结果进行坐标系转换及融合,得到每个人的三维骨骼点坐标。
3.根据权利要求1所述的方法,其特征在于,所述选取所述视频数据片段中的两个人,根据两个人的重心距离和运动矢量确定出两个人的动作类型,包括:
对所述视频数据片段中的所有人进行组合,得到个组合,n为所述视频数据片段中所有人的数量,对每一组合,根据两个人的重心距离和运动矢量确定出两个人的动作类型。
4.根据权利要求1或3所述的方法,其特征在于,所述根据两个人的重心距离和运动矢量确定出两个人的动作类型,包括:
通过如下公式计算动作类型评分K:
K=w1×d+w2×(e1·e1′)+w3×(e2·e2′);
若K预设阈值H,两个人的动作类型为双人交互动作;若K≤预设阈值H,两个人的动作类型为单人动作;
其中,w1、w2和w3为权重,w1+w2+w3=1,d为两个人的重心距离,
其中,(X1,Y1,Z1)为一个人的重心坐标,(X2,Y2,Z2)为另一个人的重心坐标,重心坐标(Xi,Yi,Zi)通过如下公式计算得到:
其中,(x2,y2,z2),(x5,y5,z5),(x8,y8,z8)和(x11,y11,z11)分别为三维骨骼点坐标中左肩、右肩、左髋部和右髋部这四个关键点的坐标;
e1·e1′为两个人各自运动方向单位向量的点积,e2·e2′为两个人相对方向单位向量的点积;
e1和e2分别通过两个人的运动矢量A1和A2计算得到,e1′和e2′分别通过两个人的重心的矢量方向A1′和A2′计算得到;
A1′=(X2-X1,Y2-Y1,Z2-Z1);
A2′=(X1-X2,Y1-Y2,Z1-Z2)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于海信集团有限公司,未经海信集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910777050.3/1.html,转载请声明来源钻瓜专利网。