[发明专利]一种语音活动检测的方法和装置、语音识别的方法和装置有效
申请号: | 201710056814.0 | 申请日: | 2017-01-25 |
公开(公告)号: | CN108346425B | 公开(公告)日: | 2021-05-25 |
发明(设计)人: | 李洋;欧阳宏宇;陈伟 | 申请(专利权)人: | 北京搜狗科技发展有限公司 |
主分类号: | G10L15/02 | 分类号: | G10L15/02;G10L15/16;G10L25/78 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 赵娟 |
地址: | 100084 北京市海淀区中关*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 语音 活动 检测 方法 装置 识别 | ||
本发明实施例提供了一种语音活动检测方法和装置、语音识别的方法和装置,其中,语音活动检测方法包括:获取当前帧输入信号的信号特征参数;采用所述信号特征参数确定所述当前帧输入信号的第一信号类型,以及,采用所述信号特征参数和预设的深度神经网络模型确定所述当前帧输入信号的第二信号类型;依据所述第一信号类型和第二信号类型,确定所述当前帧输入信号的信号类型,本发明实施例,基于信号层面和模型层面确定输入信号中的语音信号和非语音信号,提高了语音信号和非语音信号的识别准确性,增强了语音识别对噪声环境的鲁棒性和连续性。
技术领域
本发明涉及输入法的技术领域,特别是涉及一种语音活动检测的方法和一种语音活动检测装置、语音识别的方法和装置
背景技术
目前,移动互联网的快速发展带动了移动智能设备如手机、平板电脑、穿戴式设备等的广泛普及,而作为移动设备上人机交互最方便自然的方式之一,语音输入正逐渐被广大用户所接受。
语音输入的过程,是一种典型的数据输入和数据输出过程。具体来说,涉及到录音信号采集,录音信号中语音信号和非语音信号的识别,录音信号中的语音信号加工处理、语音信号的识别,最后获取到语音信号的识别结果等步骤。
在现有的语音识别方法中,由于解码器的资源有限,需要将长时间的录音信号切割成与有限资源匹配的有效片段,而将录音信号切割成有效片段主要依赖人说话的停顿间隙,停顿间隙通常可以认为是静音或者噪音,即非语音信号。目前对语音信号和非语音信号,通常利用语音活动检测(Voice Activity Detection,VAD)来进行检测,传统的VAD检测方法主要是基于信号或者基于模型,基于信号的检测方法在平稳噪声下,可以快速进行语音信号和非语音信号的识别,但是在模糊噪声、瞬态噪声等非平稳噪声环境下,识别结果不准确,造成虚警或漏警错判;基于模型的识别方法可以在平稳或者非平稳噪声下准确识别语音信号和非语音信号,但是需要排除人说话较小时的语音信号,造成语音信号识别的不连续,可见,目前对语音信号和非语音信号的识别方法,存在识别不准确和不连续的问题。
发明内容
本发明实施例所要解决的技术问题是提供一种语音活动检测的方法和装置,语音识别的方法和装置,以提高对语音信号和非语音信号检测与识别的准确性和连续性。
为了解决上述问题,本发明公开了一种语音活动检测的方法,包括:
获取当前帧输入信号的信号特征参数;
采用所述信号特征参数确定所述当前帧输入信号的第一信号类型,以及,采用所述信号特征参数和预设的深度神经网络模型确定所述当前帧输入信号的第二信号类型;
依据所述第一信号类型和第二信号类型,确定所述当前帧输入信号的信号类型。
优选地,所述信号特征参数包括信号能量值、语音信噪比、感知线性预测参数以及基频,所述采用所述信号特征参数确定所述当前帧输入信号的第一信号类型,以及,采用所述信号特征参数和预设的深度神经网络模型确定所述当前帧输入信号的第二信号类型的步骤包括:
采用所述信号能量值和所述语音信噪比确定所述当前帧输入信号的第一信号类型;
采用所述感知线性预测参数和基频,在预设的深度神经网络模型中,确定所述当前帧输入信号的第二信号类型。
优选地,所述采用所述信号能量值和所述语音信噪比确定所述当前帧输入信号的第一信号类型的步骤包括:
采用所述信号能量值确定所述当前帧输入信号的第一预判信号类型;
采用所述语音信噪比确定所述当前帧输入信号的第二预判信号类型;
当所述第一预判信号类型和所述第二预判信号类型均为语音信号时,确定所述第一信号类型为语音信号;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京搜狗科技发展有限公司,未经北京搜狗科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710056814.0/2.html,转载请声明来源钻瓜专利网。