[发明专利]一种多人三维姿态的估计方法、装置、介质及设备在审
申请号: | 202010467565.6 | 申请日: | 2020-05-28 |
公开(公告)号: | CN111626220A | 公开(公告)日: | 2020-09-04 |
发明(设计)人: | 袁潮;温建伟;方璐;李广涵;赵月峰 | 申请(专利权)人: | 北京拙河科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/50 |
代理公司: | 北京名华博信知识产权代理有限公司 11453 | 代理人: | 朱影 |
地址: | 100083 北京市海淀区王庄路*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 三维 姿态 估计 方法 装置 介质 设备 | ||
1.一种多人三维姿态的估计方法,其特征在于,包括如下步骤:
获取图像中待处理多个人体的每个人体上的多个节点的二维坐标;
根据每个人体的多个节点的二维坐标,确定每个人体在所述图像中对应的场景中的深度以及每个人体在所述图像中对应的场景中的深度置信度;
根据所述深度置信度,调整多个人体在所述图像中对应的场景中的深度。
2.根据权利要求1所述的多人三维姿态的估计方法,其特征在于,所述根据所述深度置信度,调整多个人体在所述图像中对应的场景中的深度,包括:
根据预设规则,选取多个人体在所述图像中对应的场景中的深度置信度中的一个作为参考置信度;
根据与参考置信度相应的人体多节点的特征向量和与非参考置信度相应的每个人体多节点的特征向量,确定与非参考置信度相应的每个人体的在所述图像中对应的场景中的深度调整值;
根据每个人体的在所述图像中对应的场景中的深度调整值调整与非参考置信度相应的每个人体的在所述图像中对应的场景中的深度。
3.根据权利要求1所述的多人三维姿态的估计方法,其特征在于,在确定每个人体在所述图像中对应的场景中的深度置信度之后,所述方法还包括:优化所述深度置信度:
获取每个人体的理论深度;
根据所述理论深度和每个人体在所述图像中对应的场景中的深度,确定每个人体在所述图像中对应的场景中的理论置信度;
根据每个人体在所述图像中对应的场景中的理论置信度,优化每个人体在所述图像中对应的场景中的所述深度置信度,得到优化后的每个人体在所述图像中对应的场景中的深度置信度。
4.根据权利要求3所述的多人三维姿态的估计方法,其特征在于,所述根据深度置信度调整多个人体在所述图像中对应的场景中的深度包括:
根据优化后的每个人体在所述图像中对应的场景中的深度置信度,调整对应人体在所述图像中对应的场景中的所述深度,获得多个人体在所述图像中对应的场景中的深度。
5.根据权利要求1至4任一项所述的多人三维姿态估计方法,其特征在于,所述方法还包括:
根据每个人体上的多个节点的二维坐标,确定多人多节点运算矩阵,根据所述运算矩阵获取多人多节点的特征向量矩阵;其中,每个人体的每个节点对应特征向量矩阵中的一个特征向量;
根据每个人体每个节点对应的特征向量,确定每个人体的每个节点对应的三维坐标;
所述根据每个人体的多个节点的二维坐标,确定每个人体在所述图像中对应的场景中的深度以及每个人体在所述图像中对应的场景中的深度置信度,包括:
根据每个人体每个节点对应的特征向量,确定每个人体在所述图像中对应的场景中的深度;
根据每个人体每个节点对应的特征向量,确定每个人体在所述图像中对应的场景中的深度置信度。
6.一种多人三维姿态的估计装置,其特征在于,包括:
第一神经网络模块,用于获取图像中待处理多个人体的每个人体上的多个节点的二维坐标;
第一确定模块,用于根据每个人体的多个节点的二维坐标,确定每个人体在所述图像中对应的场景中深度;
第二确定模块,用于根据每个人体的多个节点的二维坐标,确定每个人体在所述图像中对应的场景中的深度置信度;
深度优化模块,用于根据所述深度置信度,调整多个人体在所述图像中对应的场景中的深度。
7.根据权利要求6所述的多人三维姿态的估计装置,其特征在于,所述深度优化模块具体用于:
根据预设规则,选取多个人体在所述图像中对应的场景中的深度置信度中的一个作为参考置信度;
根据与参考置信度相应的人体多节点的特征向量和与非参考置信度相应的每个人体多节点的特征向量,确定与非参考置信度相应的每个人体的在所述图像中对应的场景中的深度调整值;
根据每个人体的在所述图像中对应的场景中的深度调整值调整与非参考置信度相应的每个人体的在所述图像中对应的场景中的深度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京拙河科技有限公司,未经北京拙河科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010467565.6/1.html,转载请声明来源钻瓜专利网。