[发明专利]一种基于局部学习的鲁棒声学场景识别方法有效
申请号: | 201910464699.X | 申请日: | 2019-05-30 |
公开(公告)号: | CN110176250B | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 韩纪庆;杨皓;郑贵滨;郑铁然 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G10L25/51 | 分类号: | G10L25/51;G10L25/30;G10L25/18 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 时起磊 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 局部 学习 声学 场景 识别 方法 | ||
1.一种基于局部学习的鲁棒声学场景识别方法,其特征在于,具体包括以下步骤:
步骤一、采集不同声学场景声音信号,并进行频域特征提取,提取其40维的FBank特征建立训练样本集;
步骤二、对步骤一提取的特征数据预处理:
对步骤一提取的特征计算在每一维上的均值和标准差,利用所得的均值和标准差归一化所有特征;
步骤三、信道自适应与数据扩充:
对归一化后的数据进行均值平移;再使用mixup方法进行数据扩充;
步骤四、根据局部学习思想建立卷积神经网络模型,构造损失函数使得任意样本点与同类样本点之间最近距离小于与异类样本点之间的最近距离;将经过数据扩充后的训练样本集输入所述卷积神经网络模型进行训练,得到训练好的模型;所述同类样本点指的是,与所述任意样本点属于相同音频场景的样本点;异类样本点指的是,与所述任意样本点属于不同音频场景的样本点;
步骤五、对待识别样本,依次进行频域特征提取、数据预处理,然后输入到所述训练好的模型中进行识别,得到声学场景识别结果。
2.根据权利要求1所述一种基于局部学习的鲁棒声学场景识别方法,其特征在于,步骤二中所述利用所得的均值和标准差归一化所有特征具体为:
按照下式归一化特征数据:
其中,xnorm表示归一化后的数据,μ为均值,σ为标准差;x表示特征数据。
3.根据权利要求2所述一种基于局部学习的鲁棒声学场景识别方法,其特征在于,步骤三中所述均值平移具体为:
选择性地以概率p对归一化后的数据,添加差值ε:
其中,μmost表示采集样本数最多的设备的数据均值向量;N表示除了采集样本数最多的设备之外的其他设备数目,μi表示第i个除了采集样本数最多的设备之外的其他设备的数据均值向量;i=1,...,N。
4.根据权利要求1、2或3所述一种基于局部学习的鲁棒声学场景识别方法,其特征在于,步骤三中所述使用mixup方法进行数据扩充具体为:
从采集样本数最多的设备采集的数据中随机挑选一个样本(xj,yj),从其他设备采集的数据中随机挑选另外一个样本(xi,yi),结合这两个样本生成新的样本新的样本的特征数据以及对应的标签的计算方式如下:
其中,λ表示混合系数,λ∈[0,1];xi、yi分别表示样本(xi,yi)的特征数据以及对应的标签,xj、yj分别表示样本(xj,yj)的特征数据以及对应的标签。
5.根据权利要求4所述一种基于局部学习的鲁棒声学场景识别方法,其特征在于,步骤四中所述损失函数具体为:
L=max(0,dap-dan+α) (4)
其中,dap表示样本点与同类样本点最近的欧氏距离,dan表示样本点与异类样本点最近的欧氏距离,α表示dap与dan距离间隔的最小值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910464699.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种口语发音的评估方法及装置
- 下一篇:一种声学数据自动标注方法及装置