[发明专利]一种基于神经网络和逆熵加权的音视频关键词识别方法和装置有效
申请号: | 201810752379.X | 申请日: | 2018-07-10 |
公开(公告)号: | CN109147763B | 公开(公告)日: | 2020-08-11 |
发明(设计)人: | 丁润伟;庞程;刘宏 | 申请(专利权)人: | 深圳市感动智能科技有限公司;北京大学深圳研究生院 |
主分类号: | G10L15/05 | 分类号: | G10L15/05;G10L15/06;G10L15/16;G10L15/25;G10L25/03;G10L25/30 |
代理公司: | 北京君尚知识产权代理有限公司 11200 | 代理人: | 邱晓锋 |
地址: | 518000 广东省深圳市南山区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 加权 视频 关键词 识别 方法 装置 | ||
1.一种基于神经网络和逆熵加权的音视频关键词识别方法,包括以下步骤:
1)录制关键词音视频,标注出所述音视频中关键词和非关键词语音的起止时间点,根据所述关键词和非关键词语音的起止时间点提取所述关键词和所述非关键词的声学特征向量序列和视觉特征向量序列,根据所述关键词和所述非关键词的声学特征向量序列和视觉特征向量序列通过训练神经网络得到所述关键词和所述非关键词的声学神经网络模型和视觉神经网络模型;
2)根据不同声学噪声环境下的音视频得到声学似然度和视觉似然度,根据所述声学似然度和所述视觉似然度通过计算逆熵得到声学模态可靠度、视觉模态可靠度,根据所述声学模态可靠度和所述视觉模态可靠度得到最优音视频融合权重;
3)根据步骤1)所述声学神经网络模型和所述视觉神经网络模型,以及步骤2)所述最优音视频融合权重,对待测音视频进行关键词识别;
步骤1)包含如下步骤:
1-1)根据包含关键词的抄本同步录制音视频,得到多个完整的语音段和视频段;
1-2)标注出步骤1-1)中所述语音段中关键词和非关键词语音的起止时间点;
1-3)根据步骤1-2)中所述关键词和非关键词语音的起止时间点,分帧、加窗后提取所述关键词和所述非关键词的声学特征向量序列和视觉特征向量序列;
1-4)根据步骤1-3)中所述关键词和所述非关键词的语音声学特征向量序列和视觉特征向量序列,训练所述关键词和所述非关键词的声学神经网络模型和视觉神经网络模型;
步骤2)包含如下步骤:
2-1)根据已标注关键词的不同噪声环境下的音视频段,提取所述音视频段的声学特征向量序列和视觉特征向量序列;
2-2)将步骤2-1)中所述声学特征向量序列输入步骤1-4)中所有关键词的声学神经网络模型,输出得到声学似然度;将步骤2-1)中所述视觉特征向量序列输入步骤1-4)中所有关键词的视觉神经网络模型,输出得到视觉似然度;
2-3)根据步骤2-2)中所述声学似然度和所述视觉似然度,得到声学模态可靠度和视觉模态可靠度;
2-4)根据步骤2-3)中所述声学模态可靠度和所述视觉模态可靠度得到最优音视频融合权重;
步骤2-2)所述声学特征向量序列和视觉特征向量序列对于对应的声学神经网络模型和视觉神经网络模型的似然度的计算公式为:
其中,A,V分别代表声学特征向量和视觉特征向量,xl为第l个关键词,Wa,Wv分别为训练得到的声学二维卷积网络和视觉三维卷积网络的参数,C是关键词的数目,oa,ov分别代表听觉和视觉卷积神经网络的输出;
步骤2-3)中所述声学模态可靠度和所述视觉模态可靠度的计算公式为:
步骤2-4)中所述最优音视频融合权重的线性加权公式为:
P(xl|A,V)=αP(xl|A,Wa)+(1-α)P(xl|V,Wv)
其中,P(xl|A,V)为音视频信息融合后的关键词似然度,α为最优音视频融合权重,a表示听觉符号标注,v表示视觉符号标注;P(xl|A,Wa)为声学似然度,P(xl|V,Wv)为视觉似然度。
2.如权利要求1所述的方法,其特征在于,步骤1-4)所述声学神经网络模型是二维卷积神经网络模型,所述视觉神经网络模型是三维卷积神经网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市感动智能科技有限公司;北京大学深圳研究生院,未经深圳市感动智能科技有限公司;北京大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810752379.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种语音识别方法及系统
- 下一篇:语音交互方法、装置、设备及计算机可读介质