[发明专利]一种基于神经网络与卡尔曼滤波的人体姿态估计方法在审
申请号: | 202210647342.7 | 申请日: | 2022-06-08 |
公开(公告)号: | CN114973417A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 毛城;徐杰威;杨旭升 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/82;G06N3/04;G06N3/08;G06T7/277 |
代理公司: | 浙江千克知识产权代理有限公司 33246 | 代理人: | 冷红梅 |
地址: | 310000 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 卡尔 滤波 人体 姿态 估计 方法 | ||
本发明涉及人体姿态估计领域,尤其涉及一种基于神经网络与卡尔曼滤波的人体姿态估计方法。包括:步骤1)建立并训练BP神经网络模型,建立运动模型和量测模型;步骤2)设定初始状态;步骤3)计算得到先验预测值及其协方差;步骤4)计算量测值的先验残差及先验协方差;步骤5)读取视觉传感器测量值,计算后验残差及后验协方差;步骤6)计算马氏距离的平方,若大于预设阈值,则以先验预测值替代,返回步骤5),若处于预设区间内,则计算自适应因子并更新后验协方差,进入步骤7);步骤7)计算卡尔曼滤波增益、位置估计值和更新状态的协方差矩阵。本发明的有益效果主要表现在:有效降低复杂动作建模的难度,提高了对不确定性噪声的鲁棒性。
技术领域
本发明涉及人体姿态估计领域,尤其涉及一种基于神经网络与卡尔曼滤波的人体姿态估计方法。
背景技术
人体姿态估计是计算机视觉领域中的重要研究方向之一,在人机交互、行为识别、视频监视以及体育游戏等领域中有着重要的应用价值。特别的,随着人工智能、3D视觉等技术的发展,人体姿态估计技术被应用于工业、农业生产等领域。然而,由于人体运动的随机性,如何获取准确、有效的人体姿态仍是一件非常具有挑战性的工作。
随着深度神经网络的不断发展,利用神经网络的非线性映射能力,可以有效降低人体运动建模的难度。然而,由于人体运动过程是一个随机连续的过程,使得运用BP神经网络等得到的运动学模型与实际值往往有一定的偏差。另一方面,在进行人体关节点测量的噪声也存在不确定性,不再满足高斯白噪声的假设,利用传统的卡尔曼滤波进行人体姿态估计时往往不能到达满意的效果。为此,可通过引入自适应因子的方法来解决在人体姿态估计过程中存在不确定噪声的问题。然而,由于人体运动的随机性,以及同时存在的量测噪声不确定性,目前,还没有技术能有效地解决人体姿态估计中存在建模误差、量测不确定等问题,来提高人体姿态估计的精度和鲁棒性。
发明内容
本发明所要解决的技术问题:目前人体姿态估计方法精度低且鲁棒性差的技术问题。提出了一种基于神经网络与卡尔曼滤波的人体姿态估计方法,借助神经网络和卡尔曼滤波提高了人体姿态估计的准确度和鲁棒性。
解决上述技术问题,本发明采用如下技术方案:一种基于神经网络与卡尔曼滤波的人体姿态估计方法,包括:
步骤1)获取三维人体关节点的位置数据,人工标记后作为训练样本,建立并训练BP神经网络模型,得到状态转移函数fi(xi),i∈[1,N],N为人体关节点数量,xi为第i个人体关节点当前状态,建立各个人体关节点的运动模型和量测模型;
步骤2)设定人体姿态各关节点的初始状态及其协方差,分别记为和
步骤3)根据状态转移函数fi(xi)和第k-1时刻第i个人体关节点位置,分别计算得到k时刻各个人体关节点位置的先验预测值及其协方差
步骤4)根据扩展卡尔曼滤波状态方程计算人体关节点位置量测值的先验残差及先验协方差
步骤5)读取第k时刻各个人体关节点的视觉传感器测量值,代入量测模型获得各个人体关节点的量测位置,根据扩展卡尔曼滤波状态方程分别计算人体关节点位置量测值的后验残差及后验协方差
步骤6)根据所得的先验残差先验协方差后验残差及后验协方差分别计算马氏距离的平力和若则剔除视觉传感器测量值,并以先验预测值作为第k时刻第i个人体关节点位置的估计值,返回步骤5),若则计算自适应因子并更新后验协方差进入步骤7),若则直接进入步骤7),其中,和为对于给定显著性水平和下,服从自由度为3的卡方分布的置信界,且满足
步骤7)根据先验残差及先验协方差计算第k时刻各个人体关节点位置变化的卡尔曼滤波增益位置估计值和更新状态的协方差矩阵由位置估计值获得人体姿态的估计;
步骤8)重复步骤3)至步骤7)持续获得人体姿态估计结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210647342.7/2.html,转载请声明来源钻瓜专利网。