[发明专利]标准发音生成方法及相关装置有效
申请号: | 202011039390.5 | 申请日: | 2020-09-28 |
公开(公告)号: | CN111930900B | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | 汪光璟;杨嵩;李成飞 | 申请(专利权)人: | 北京世纪好未来教育科技有限公司 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06K9/62;G06N3/04;G10L13/04;G10L13/08;G10L15/02;G10L15/26 |
代理公司: | 上海知锦知识产权代理事务所(特殊普通合伙) 31327 | 代理人: | 李丽 |
地址: | 100144 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标准 发音 生成 方法 相关 装置 | ||
1.一种标准发音生成方法,其特征在于,包括:
获取标准文本和所述标准文本对应的用户音频;
根据所述标准文本获取各个标准文本特征向量,根据所述用户音频获取各个用户音频帧特征向量,并根据各个所述用户音频帧特征向量和预定的各个基准身份特征向量获取所述用户的各个用户声学特征向量,其中,基准身份特征向量是基于基准用户的音频得到的音频帧声学特征向量,用于描述基准用户的发音特征,并对不同的基准用户具有区分度;
将相互对应的所述用户声学特征向量和所述标准文本特征向量进行融合,得到各个融合特征向量;
根据各个融合特征向量获取对应所述标准文本的标准发音;
其中,所述根据各个所述用户音频帧特征向量和预定的各个基准身份特征向量获取所述用户的各个用户声学特征向量的步骤包括:
获取各个所述用户音频帧特征向量与预定的各个基准身份特征向量的各个关联度;
根据对应于同一个用户音频帧特征向量的各个所述关联度和与所述关联度对应的所述基准身份特征向量,获取所述用户音频帧特征向量的用户声学特征向量,得到每个所述用户音频帧特征向量的用户声学特征向量。
2.如权利要求1所述的标准发音生成方法,其特征在于,所述获取各个所述用户音频帧特征向量与预定的各个基准身份特征向量的各个关联度的步骤包括:
对各个所述用户音频帧特征向量和各个所述基准身份特征向量进行向量维数转换,得到向量维数相同的各个维数转换音频特征向量和各个维数转换身份特征向量;
计算各个所述维数转换音频特征向量和各个维数转换身份特征向量的关联度,得到各个所述用户音频帧特征向量与预定的各个基准身份特征向量的各个关联度。
3.如权利要求2所述的标准发音生成方法,其特征在于,所述维数转换音频特征向量通过以下公式获取:
其中: --t时刻的维数转换音频特征向量;
--t时刻的用户音频帧特征向量;
--第一维数转换矩阵。
4.如权利要求3所述的标准发音生成方法,其特征在于,所述维数转换身份特征向量通过以下公式获取:
其中: --第n个维数转换身份特征向量;
--第n个基准身份特征向量;
--第二维数转换矩阵。
5.如权利要求4所述的标准发音生成方法,其特征在于,所述关联度通过以下公式获取:
其中: -- t时刻的用户音频帧特征向量与第n个基准身份特征向量的关联度;
--t时刻的维数转换音频特征向量;
--第n个维数转换身份特征向量;
--调整系数。
6.如权利要求5所述的标准发音生成方法,其特征在于,所述用户声学特征向量通过以下公式获取:
其中: --t时刻的用户声学特征向量;
-- t时刻的用户音频帧特征向量与第n个基准身份特征向量的关联度;
--第n个基准身份特征向量;
N--基准身份特征向量的个数。
7.如权利要求1-6任一项所述的标准发音生成方法,其特征在于,还包括:
至少根据各个所述用户音频帧特征向量,获取所述用户音频对应的识别文本;
获取所述识别文本和所述标准文本的相似度,当所述相似度小于预定的相似度阈值时,执行所述相互对应的所述用户声学特征向量和所述标准文本特征进行融合,得到各个融合特征向量的步骤。
8.如权利要求7所述的标准发音生成方法,其特征在于,所述至少根据各个所述用户音频帧特征向量,获取所述用户音频对应的识别文本的步骤包括:
将相互对应的所述用户音频帧特征向量和所述用户声学特征向量进行融合,得到各个融合向量;
根据各个所述融合向量获取所述识别文本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京世纪好未来教育科技有限公司,未经北京世纪好未来教育科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011039390.5/1.html,转载请声明来源钻瓜专利网。