[发明专利]一种基于信念图增强网络的人体姿态估计方法在审
申请号: | 202110471854.8 | 申请日: | 2021-04-29 |
公开(公告)号: | CN113128446A | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 唐杰;武港山;张哲;唐玉婷;薛占奎 | 申请(专利权)人: | 南京大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京天翼专利代理有限责任公司 32112 | 代理人: | 奚铭 |
地址: | 210023 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 信念 增强 网络 人体 姿态 估计 方法 | ||
1.一种基于信念图增强网络的人体姿态估计方法,其特征是构建一个信念图增强网络,对人体姿态估计基础模型输出的信念图提高分辨率,信念图增强网络由若干个卷积层和一个亚像素卷积层构成,将基础模型输出的特征图和信念图进行拼接,作为信念图增强网络的输入,输出一组更高分辨率的信念图;在训练信念图增强网络时,根据训练集中的标注信息生成低分辨率信念图标签和高分辨率信念图标签,低分辨率信念图标签对应基础模型的输出分辨率,高分辨率信念图标签对应信念图增强网络的输出分辨率,训练时利用MESLoss函数分别计算两种分辨率下预测结果与真实标签之间的均方误差,求二者的加权和,并以此推导信念图增强网络各层参数的梯度,使用Adam优化器进行监督训练。
2.根据权利要求1所述的一种基于信念图增强网络的人体姿态估计方法,其特征是训练集具体为:生成信念图标签时,对于一个人体样本,首先根据规定的关键点数量K定义一个具有K个通道的全黑图像,即该图像中每个像素点的灰度值都是0,然后按照该样本的标注信息,对于每一个关键点坐标,在上述全黑图像的对应通道处以该坐标点为中心生成一个高斯二维分布,从而得到一个具有K个通道的信念图,若指定信念图增强网络生成的信念图分辨率与原始图像的分辨率不同,则在生成高斯二维分布时将标准差乘上相应的缩放因子r。
3.根据权利要求2所述的一种基于信念图增强网络的人体姿态估计方法,其特征是信念图增强网络中,亚像素卷积层的输出通道数由参数k*r2控制。
4.根据权利要求1或2或3所述的一种基于信念图增强网络的人体姿态估计方法,其特征是对信念图增强网络的训练具体为:根据训练集的不同分辨率的信念图标签,利用MSELoss函数分别计算不同分辨率下的预测损失,然后将两类预测损失按比例相加作为网络最终的损失函数,通过最终损失函数的值计算模型中各网络层的参数梯度,使用Adam优化器对其进行监督训练,其中,对信念图增强网络的训练需要150个epoch,训练时的学习率初始化为0.001,分别在第60个epoch和第90个epoch进行一次衰减,学习率衰减后变为原先的十分之一。
5.根据权利要求4所述的一种基于信念图增强网络的人体姿态估计方法,其特征是在训练过程中,还对训练集进行增强操作来提升模型的泛化能力,所述增强操作包括旋转和缩放,其中,旋转操作绕图像中心点以[-40°,+40°]的随机角度进行旋转;缩放操作以[1-0.3,1+0.3]的比例进行缩放。
6.根据权利要求4所述的一种基于信念图增强网络的人体姿态估计方法,其特征是将两类预测损失以1:1的比例相加作为网络最终的损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110471854.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种消防管通阻检测机构
- 下一篇:一种机器人主动搜索目标的方法及智能机器人