[发明专利]一种基于SVM-GMM模型的语音识别方法在审
申请号: | 201811584656.7 | 申请日: | 2018-12-24 |
公开(公告)号: | CN109461457A | 公开(公告)日: | 2019-03-12 |
发明(设计)人: | 祝玉军;刘波;方群;何昕;赵大东;刘毅杨;康龙龙;方银银 | 申请(专利权)人: | 安徽师范大学;赛尔网络有限公司 |
主分类号: | G10L25/27 | 分类号: | G10L25/27;G10L25/51 |
代理公司: | 北京国坤专利代理事务所(普通合伙) 11491 | 代理人: | 黄耀钧 |
地址: | 241000 *** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音识别 混合模型 高斯混合模型 分类器模块 支撑向量机 决策模块 模型结合 声音数据 识别性能 投票模块 辨识度 辨识 | ||
1.一种基于SVM-GMM模型,其特征在于:包括声音数据模块(1),所述声音数据模块(1)的输出端连接GMM分类器模块(2)和SVM分类器模块(3)的输入端,且所述GMM分类器模块(2)和SVM分类器模块(3)的输出端连接投票模块(4)的输入端;所述投票模块(4)的输出端连接决策模块(5)的输出端。
2.一种基于SVM-GMM模型的语音识别方法,其特征在于:在GMM-SVM模型中,将待测语音的每个音框将同时提供给GMM分类器及SVM分类器,投票结果将由两个分类器识别投票,当所有音框完成了GMM及SVM的投票程序,待测语音的身份将会根据投票的决果来决定接受或拒绝,从而实现语音识别。
3.根据权利要求2所述的一种基于SVM-GMM模型的语音识别方法,其特征在于:所述声音数据模型处理包括以下步骤:
步骤A、语音讯号经由麦克风输入,首先判断语音的端点,将语音分段舍弃静音,保留有用的语音讯号;
步骤B、对每段的语音波形做后续分析工作,对分析处理的语音波形进行选取音框;
步骤C、对原始语音做预强调处理,将取样后的声音通过一阶的数位滤波器,转换成函数,接着乘上汉明窗,再来作LPC系数分析;
步骤D、通过自相关系数计算,求得倒频谱参数后,再经过带通提升的窗口处理,最后即特征参数向量的输出。
4.根据权利要求1所述的一种基于SVM-GMM模型的语音识别方法,其特征在于:所述GMM分类器模块处理包括混和加权值、平均值向量以及共变异矩阵,如下所示:
λ={wi,μi,Σi},i=1,2,3,…,M (1)
其中wi表示的是混和加权值,μi表示的是平均值向量,Σi表示的是共变异矩阵,而M则是高斯分布的个数,对每一个语音而言,用一个λ来代表,对一个D维的特征向量x而言,对于语音高斯混和模型的相似度计算如下所示:
是基本密度函数,wi,i=1,2,...,M是混合权数,必须满足
在资料压缩中,利用VQ来做高斯混和模型参数的初始值,使用二值分裂法和K平均值修正法两种VQ方法求得高斯混和模型参数的初始值,其流程如下:
(1)首先由一个丛集开始,找出所有训练向量的平均值,作为整个丛集的质心,用公式4进行分裂丛集,每一次分裂,丛集的个数成二的倍数成长;
其中,μ表示丛集的质心,ε为分裂参数,在这里ε为0.05;
(2)接着将每一个训练向量对每一个质心做距离测量,并作为分群的依据,每个向量被分类到距离最短的质心;
(3)更新质心:接着对每一群的向量求平均值,用平均向量来更新每一群的质心;
(4)重复(2)(3)的步骤,直到每一个质心与训练向量的总体距离和小于一个临界值;
(5)重复(1)的步骤,直到丛集的个数达到所需要的。
5.根据权利要求1所述的一种基于SVM-GMM模型的语音识别方法,其特征在于:所述SVM分类器模块处理寻找使得两类分类间隔最大的分类超平面;
在一个基本的二元分类问题中,假设已有训练集合S={xk,yk},k=1,2,...,n,其中xk∈R代表在n维特征空间中的输入资料,yk∈{-1,+1}为输出资料及类别,而线性分类器如(5)所示;
y(x)=sign[wTx-b] (5)
则两类别资料可由(6)分出;
进行尺度调整,支持超平面与最佳分类超平面的距离在±1以内,因此(6)可改写为(7):
要处理边界有重叠的情形,导入一个误差项δ,
由(2.8)可得:
yk(wTxk-b)≥1-δk (9)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽师范大学;赛尔网络有限公司,未经安徽师范大学;赛尔网络有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811584656.7/1.html,转载请声明来源钻瓜专利网。