[发明专利]基于长短时神经网络的多声部音乐生成方法及装置有效
申请号: | 201811257165.1 | 申请日: | 2018-10-26 |
公开(公告)号: | CN109346045B | 公开(公告)日: | 2023-09-19 |
发明(设计)人: | 刘奡智;王义文;王健宗;肖京 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G10H1/32 | 分类号: | G10H1/32 |
代理公司: | 北京汇思诚业知识产权代理有限公司 11444 | 代理人: | 冯晓平 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 长短 神经网络 声部 音乐 生成 方法 装置 | ||
1.一种基于长短时神经网络的多声部音乐生成方法,其特征在于,所述方法包括:
构建音乐生成模型,所述音乐生成模型包括一个第一长短时神经网络、一个第二长短时神经网络、一个单隐藏层神经网络及一个依赖网络;
通过包括多个声部的音乐样本数据训练所述音乐生成模型,得到训练好的所述音乐生成模型的网络参数及所述多个声部的音符概率密度分布;
获取用户输入的用于预生成多声部音乐的特征参数,所述特征参数包括预设音乐时长、预设节奏序列及预设延音序列;
向所述训练好的音乐生成模型中依次输入多个声部的音符随机序列,以使所述音乐生成模型根据所述音符随机序列、所述网络参数及所述多个声部的音符概率密度分布生成匹配所述特征参数的多声部音乐。
2.根据权利要求1所述的方法,其特征在于,在所述通过包括多个声部的音乐样本数据训练所述音乐生成模型之前,所述方法还包括:
获取多个音乐训练样本,其中,所述音乐训练样本包括多个声部信息;
提取每个声部的音符序列、所述音乐训练样本的节奏序列及延音序列;其中,所述每个声部的音符序列表示为:t∈[T],T为所述音乐训练样本的时长,是十六分音符的整数倍;i为声部;为当前时刻t的音符;
将所述多个声部的音符序列、所述音乐训练样本的节奏序列及延音序列作为所述音乐样本数据。
3.根据权利要求2所述的方法,其特征在于,所述通过包括多个声部的音乐样本数据训练所述音乐生成模型,得到训练好的所述音乐生成模型的网络参数及所述多个声部的音符概率密度分布,包括:
向所述音乐生成模型中输入所述音乐样本数据;
获取所述音乐生成模型输出的每个声部的音符概率密度函数:其中,为当前时刻t的音符,为音符序列中除去当前音符剩下的所有音符;为所述节奏序列及延音序列;θi为所述依赖网络的参数;
训练所述音乐生成模型使以下公式的值最大化:
获取当所述公式的值最大时所述音乐生成模型的网络参数及所述多个声部的音符概率密度分布。
4.根据权利要求3所述的方法,其特征在于:
所述向所述音乐生成模型中输入所述音乐样本数据之后,所述音乐生成模型的所述第一长短时神经网络接收每个声部的音符序列中当前时刻音符前的预设时长的第一音符序列,并根据所述第一音符序列输出第一参数至所述依赖网络;
所述第二长短时神经网络接收每个声部的音符序列中所述当前时刻音符后的预设时长的第二音符序列,并根据所述第二音符序列输出第二参数至所述依赖网络;
所述单隐藏层神经网络接收每个声部的音符序列中所述当前时刻音符并传递至所述依赖网络;
所述依赖网络根据所述第一参数、所述第二参数及所述当前时刻音符输出所述每个声部的音符概率密度函数。
5.根据权利要求1所述的方法,其特征在于,所述向所述训练好的音乐生成模型中依次输入多个声部的音符随机序列,以使所述音乐生成模型根据所述音符随机序列、所述网络参数及所述多个声部的音符概率密度分布生成匹配所述特征参数的多声部音乐,包括:
向所述训练好的音乐生成模型中依次输入第一声部、第二声部、第三声部、第四声部的音符随机序列;
所述音乐生成模型基于第i声部的音符随机序列、所述网络参数、所述特征参数及所述第i声部的音符概率密度分布生成所述第i声部的多个音符,i依次取一、二、三、四;
根据所述第i声部的多个音符生成所述第i声部的音符新序列;
将所述第一声部的音符新序列、所述第二声部的音符新序列、所述第三声部的音符新序列、所述第四声部的音符新序列组合形成所述多声部音乐。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811257165.1/1.html,转载请声明来源钻瓜专利网。