[发明专利]语音验证模型的训练方法、装置以及计算机设备在审
申请号: | 202110462399.5 | 申请日: | 2021-04-27 |
公开(公告)号: | CN113178197A | 公开(公告)日: | 2021-07-27 |
发明(设计)人: | 苏雪琦;王健宗;程宁 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G10L17/04 | 分类号: | G10L17/04;G10L17/02 |
代理公司: | 深圳市明日今典知识产权代理事务所(普通合伙) 44343 | 代理人: | 王杰辉;赫坤鹏 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音 验证 模型 训练 方法 装置 以及 计算机 设备 | ||
1.一种语音验证模型的训练方法,其特征在于,包括:
获取待训练的语音样本数据;
将所述待训练的语音样本数据进行预处理,得到对应的标准待训练的语音样本数据;
根据标准待训练的语音样本数据中各帧语音数据的先后顺序以及各帧语音数据对应的矢量值,得到对应的语音矢量集;
计算所述语音矢量集与预设语音类别中各个类别的相关度;
根据计算的相关度值,选取相关度值最大的目标类别,并获取所述目标类别的目标参数;其中,所述目标参数为对应所述目标类别预先训练得到的参数;
将所述目标参数输入至待训练的语音验证模型中,得到语音验证暂时模型,再将所述语音矢量集输入至所述语音验证暂时模型中进行训练,得到语音验证模型。
2.如权利要求1所述的语音验证模型的训练方法,其特征在于,所述将所述待训练的语音样本数据进行预处理,得到对应的标准待训练的语音样本数据的步骤,包括:
获取待训练的语音样本数据中语音数据的声音强度;
判断所述语音数据中的声音强度的平均大小是否小于预设分贝值;
若小于所述预设分贝值,则对所述语音数据进行语音预加重处理,得到标准语音数据;
计算所述标准语音数据中语音长度和声音强度之间的变化参数;
将所述变化参数和所述标准语音数据输入至语音增益参数计算公式中,得到对应的增益参数;
根据所述增益参数对所述标准语音数据进行增益处理,得到所述标准待训练的语音样本数据。
3.如权利要求2所述的语音验证模型的训练方法,其特征在于,所述将所述变化参数和所述标准语音数据输入至语音增益参数计算公式中,得到对应的增益参数的步骤,包括:
根据所述语音增益参数计算公式计算各帧语音的增益参数;其中,所述Gi表示第i帧语音的增益参数,R0(0)表示所述变化参数,ak表示第k帧语音的线性预测系数,Rn(k)表示第k帧语音对应的值,p表示所述标准语音数据中的总帧数。
4.如权利要求1所述的语音验证模型的训练方法,其特征在于,所述计算所述语音矢量集与预设语音类别中各个类别的相关度的步骤,包括:
获取所述各个类别的高斯分布;
根据公式计算所述语音矢量集中第t帧语音数据与第i个类别的高斯分布之间的帧相关度;其中,Pr(i,t)表示所述帧相关度,所述pj(xt)表示第t帧语音数据在第j个高斯分布中所对应的概率值,wj表示第j个高斯分布对应的权重值,M表示类别的总个数;
根据所述语音矢量集中各帧的所述帧相关度,计算得到与各个类别的相关度。
5.如权利要求1所述的语音验证模型的训练方法,其特征在于,所述获取所述目标类别的目标参数的步骤之前,还包括:
通过sqoop脚本获取各个所述预设语音类别中各个类别的训练数据;
将各个类别的训练数据分别输入至对应的语音识别模型中进行训练;
训练完成后获取各个类别对应的语音识别模型中的模型参数作为各个类别的参数。
6.如权利要求1所述的语音验证模型的训练方法,其特征在于,所述将所述目标参数输入至待训练的语音验证模型中,得到语音验证暂时模型,再将所述语音矢量集输入至所述语音验证暂时模型中进行训练,得到语音验证模型的步骤之后,还包括:
将所述语音矢量集中的元素依次输入至所述语音验证模型中,得到各个所述元素对应的实际输出值;
根据损失函数公式计算所述语音验证模型的损失值,其中,所述损失函数为:
yi表示第i个元素对应的真实值,f(xi)表示输入所述语音验证模型中得到的预测值,n表示所述元素的个数,表示预设的参数值,表示所述语音验证模型的损失值;
根据所述损失值判断所述语音验证模型是否训练成功。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110462399.5/1.html,转载请声明来源钻瓜专利网。