[发明专利]一种视听融合的语音识别系统无效
申请号: | 201410140715.7 | 申请日: | 2014-04-09 |
公开(公告)号: | CN104036775A | 公开(公告)日: | 2014-09-10 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 天津思博科科技发展有限公司 |
主分类号: | G10L15/14 | 分类号: | G10L15/14 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 300384 天津市滨海新区华苑产业区*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视听 融合 语音 识别 系统 | ||
1.一种视听融合的语音识别系统,其特征在于:包括音频特征提取、视频特征提取、建立CHMM模型三个步骤,三个步骤之间的关系如下:CHMM可以通过节点之间的状态转移概率捕捉到音频和视频之间的相互作用关系,另外,对于耦合隐马尔科夫模型而言,音频链和视频链所利用的最大期望算法(EM算法)进行参数估计的过程是独立的。
2.根据权利要求1所述的一种视听融合的语音识别系统,其特征在于:所述音频特征提取步骤主要是为了得到MFCC系数。
3.根据权利要求2所述的音频特征提取步骤,其特征在于:所述得到MFCC系数的实现过程为首先对输入的语音信号进行分帧、加窗,然后作离散傅立叶变换,获得频谱分布信息,再求频谱幅度的平方,得到频率谱,再将每帧的频率谱参数通过一组M 个( M 一般为20~30 个)三角形带通滤波器所组成的Mel频率滤波器,将每个频带的输出取对数,求出每一个输出的对数能量(log energy)Ek,k =1,2,... N,再将此M 个参数进行离散余弦变换得到MFCC系数。
4.根据权利要求1所述的一种视听融合的语音识别系统,其特征在于:所述视频特征提取步骤主要是为了得到人在说话过程中的唇部轮廓参数。
5.根据权利要求4所述的视频特征提取步骤,其特征在于:所述得到人在说话过程中的唇部轮廓参数的实现过程为首先对唇色进行分析,增强唇色,对图像进行二值化处理,然后根据嘴唇的形状特征四条曲线来构造唇部的轮廓。
6.根据权利要求1所述的一种视听融合的语音识别系统,其特征在于:所述建立CHMM模型步骤包括CHMM模型基本参数的定义和CHMM的训练两个过程。
7.根据权利要求6所述的建立CHMM模型步骤,其特征在于:所述CHMM的训练过程包括得到的初始化参数和对基本参数进行重估两个阶段,其中第一个阶段,CHMM参数的估计需要利用基于Viterbi算法得到的初始化参数,第二个阶段,采用EM算法对由第一阶段得到的基本参数进行重估。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津思博科科技发展有限公司,未经天津思博科科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410140715.7/1.html,转载请声明来源钻瓜专利网。