[发明专利]舞蹈合成方法、装置及电子设备在审
申请号: | 202010817170.4 | 申请日: | 2020-08-14 |
公开(公告)号: | CN111986295A | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 者雪飞;暴林超;庄文林 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06T13/20 | 分类号: | G06T13/20;A63F13/60;A63F13/814 |
代理公司: | 深圳市智圈知识产权代理事务所(普通合伙) 44351 | 代理人: | 韩绍君 |
地址: | 518064 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 舞蹈 合成 方法 装置 电子设备 | ||
1.一种舞蹈合成方法,其特征在于,包括:
获取生成网络根据样本音乐信息的音乐特征输出的合成舞蹈信息,获取判别网络基于所述合成舞蹈信息输出的判别数据;
基于所述判别数据调整所述生成网络的网络参数,使调整后的生成网络基于所述音乐特征输出的合成舞蹈信息被所述判别网络识别为真实舞蹈信息;
通过所述调整后的生成网络,将待处理音乐信息合成为目标舞蹈信息。
2.根据权利要求1所述的方法,其特征在于,所述判别数据为第一判别数据,在所述基于所述判别数据调整所述生成网络的网络参数之前,所述方法还包括:
获取所述判别网络基于所述样本音乐信息对应的真实舞蹈信息输出的第二判别数据;
基于所述第一判别数据和所述第二判别数据调整所述判别网络的网络参数,使调整后的判别网络基于所述合成舞蹈信息输出的第一判别数据与基于所述真实舞蹈信息输出的第二判别数据之间的差距增大。
3.根据权利要求2所述的方法,其特征在于,所述判别网络用于在基于任一舞蹈信息输出的判别数据为正时,输出表征该舞蹈信息是真实舞蹈信息的判别结果,且该判别结果的置信度与该判别数据的大小成正比;所述基于所述第一判别数据和所述第二判别数据调整所述判别网络的网络参数,包括:
基于第一损失函数对所述第一判别数据和所述第二判别数据进行计算,其中,所述第一损失函数的函数值与所述第一判别数据成正比、与所述第二判别数据成反比;
调整所述判别网络的网络参数,使所述第一损失函数的函数值减小。
4.根据权利要求3所述的方法,其特征在于,所述判别网络包括至少两个不同尺度的判别器,每个判别器用于根据输入的合成舞蹈信息输出一第一判别数据或根据输入的真实舞蹈信息输出一第二判别数据;所述基于第一损失函数对所述第一判别数据和所述第二判别数据进行计算,包括:
针对每一判别器,获取所述判别器基于所述样本音乐信息对应的合成舞蹈信息输出的第一判别数据以及基于所述样本音乐信息对应的真实舞蹈信息输出的第二判别数据;
将目标值与所述第一判别数据之和确定为第一值,将0和所述第一值中较小的一者确定为所述判别器的对应于所述样本音乐信息的第一损失值;
将目标值与所述第二判别数据之差确定为第二值,将0和所述第二值中较小的一者确定为所述判别器的对应于所述样本音乐信息的第二损失值;
获取至少两个所述样本音乐信息对应的第一损失值的第一平均值,以及至少两个所述样本音乐信息对应的第二损失值的第二平均值,并将所述第一平均值和所述第二平均值之和确定为所述第一损失函数的函数值。
5.根据权利要求2-4中任意一项所述的方法,其特征在于,所述基于所述判别数据调整所述生成网络的网络参数,包括:
基于第二损失函数对所述第一判别数据进行计算,其中,所述第二损失函数的函数值与所述第一判别数据成反比;
调整所述生成网络的网络参数,使所述第二损失函数的函数值减小。
6.根据权利要求5所述的方法,其特征在于,所述判别网络包括至少两个不同尺度的判别器,每个判别器用于根据输入的合成舞蹈信息输出一第一判别数据;所述基于第二损失函数对所述第一判别数据进行计算,包括:
获取每个判别器针对所述合成舞蹈信息输出的第一判别数据的相反数,并对获取的各相反数求和,得到所述判别网络的第三损失值;
获取至少两个所述合成舞蹈信息对应的第三损失值,对获取的第三损失值求平均,并将得到的平均值确定为所述第二损失函数的函数值。
7.根据权利要求5所述的方法,其特征在于,所述基于所述判别数据调整所述生成网络的网络参数,还包括:
获取所述判别网络从所述样本音乐信息对应的真实舞蹈信息中提取的第一特征图,以及从所述样本音乐信息对应的合成舞蹈信息中提取的第二特征图;
基于第三损失函数对所述第二特征图与所述第一特征图进行计算,并调整所述生成网络的网络参数,使所述第三损失函数的函数值减小。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010817170.4/1.html,转载请声明来源钻瓜专利网。