[发明专利]一种基于跳跃编码器的并行端到端语音合成方法在审
申请号: | 202011599744.1 | 申请日: | 2020-12-29 |
公开(公告)号: | CN112820266A | 公开(公告)日: | 2021-05-18 |
发明(设计)人: | 廖至铨;潘嵘 | 申请(专利权)人: | 中山大学 |
主分类号: | G10L13/02 | 分类号: | G10L13/02;G10L25/18;G10L25/30 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 陈伟斌 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 跳跃 编码器 并行 端到端 语音 合成 方法 | ||
1.一种基于跳跃编码器的并行端到端语音合成方法,其特征在于,包括以下步骤:
步骤一:将文本与韵律标记一起输入到编码器模块;
步骤二:将编码器的输出输入到跳跃编码器,跳过输出序列中韵律标记对应时间步的特征,保留文本内容对应的隐特征;
步骤三:通过FastSpeech的时长模型对得到的文本隐特征进行扩充;
步骤四:将跳跃编码器的输出输入到FastSpeech基于Transformer的解码器实现并行化的解码,得到合成语音的频谱特征;
步骤五:使用声码器将频谱特征映射为声音波形,得到合成的语音。
2.根据权利要求1所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,包括以下流程:
S1、获取训练样本;
S2、进行模型训练阶段;
S3、进行模型预测阶段;
S4、根据实际应用场景与合成语音的效果,对各个模块的参数进行调整,使语音质量符合要求。
3.根据权利要求2所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在流程S1中,所述样本形式为文本、时长、频谱。
4.根据权利要求3所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,文本中带有韵律标记,不同韵律标记的符号按实际情况确定,韵律标记为标注或使用韵律模型生成,时长部分由标注得到或者使用音字对齐模型获取。
5.根据权利要求4所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,所述韵律标记包括韵律词、韵律短语以及语调短语。
6.根据权利要求5所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在流程S2中,还包括以下流程:
S21、初始化模型各模块的参数,文本经过前端模块转化为带韵律标记的音素序列,计算得到编码后的隐特征,接着经过跳跃编码器,内部通过掩码操作过滤不参与解码的隐特征,得到实际参与解码的文本对应的隐特征;
S22、使用训练数据中的时长特征对隐特征进行扩增,与目标频谱进行对齐;
S23、生成频谱;
S24、据实际需要设计误差函数与更新策略,训练至模型收敛。
7.根据权利要求6所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在流程S21中,文本经过前端模块转化为带韵律标记的音素序列,经过基于LSTM或者Transformer的编码器计算得到编码后的隐特征。
8.根据权利要求7所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在流程S23中,经过FastSpeech的解码器生成频谱。
9.根据权利要求8所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在流程S3中,主要流程内容为:扩增隐特征所需要的时长,由训练好的时长模型进行预测,其余流程与模型训练阶段相同,得到生成的频谱后使用预训练的声码器模型或相位恢复算法得到最终的合成语音。
10.根据权利要求1至9中任一项所述的基于跳跃编码器的并行端到端语音合成方法,其特征在于,在步骤S1中,所述编码器模块为Tacotron2的编码器模块或FastSpeech的编码器模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011599744.1/1.html,转载请声明来源钻瓜专利网。