[发明专利]一种基于紧密卷积的神经网络模型的声音场景识别方法有效
申请号: | 201910960583.5 | 申请日: | 2019-10-10 |
公开(公告)号: | CN110796027B | 公开(公告)日: | 2023-10-17 |
发明(设计)人: | 张涛;冯国庆;梁晋华 | 申请(专利权)人: | 天津大学 |
主分类号: | G06F18/241 | 分类号: | G06F18/241;G06F18/213;G06N3/0464;G06N3/048;G06N3/08 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 杜文茹 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种基于紧密卷积的神经网络模型的声音场景识别方法:建立用于声音场景分类的紧密卷积的神经网络模型;将包含有不同场景类别的音频文件和对应的场景类别的训练集输入用于声音场景分类的紧密卷积的神经网络模型,对用于声音场景分类的紧密卷积的神经网络模型进行训练;读取音频文件并进行预处理,得到音频信号片段;从所述的音频信号片段中提取对数梅尔图;将所述的对数梅尔图输入到训练后的用于声音场景分类的紧密卷积的神经网络模型中,得到最终的声音场景类别。本发明既保证了有效特征得以充分的利用而使准确率不变,又精简了网络模型而减少内存消耗,在声音场景识别中做到更加高效,更好的满足声音场景识别设备的性能要求。 | ||
搜索关键词: | 一种 基于 紧密 卷积 神经网络 模型 声音 场景 识别 方法 | ||
【主权项】:
1.一种基于紧密卷积的神经网络模型的声音场景识别方法,其特征在于,包括如下步骤:/n1)建立用于声音场景分类的紧密卷积的神经网络模型;/n2)将包含有不同场景类别的音频文件和对应的场景类别的训练集输入用于声音场景分类的紧密卷积的神经网络模型,对用于声音场景分类的紧密卷积的神经网络模型进行训练;/n3)读取音频文件并进行预处理,得到音频信号片段;/n4)从所述的音频信号片段中提取对数梅尔图;/n5)将所述的对数梅尔图输入到训练后的用于声音场景分类的紧密卷积的神经网络模型中,得到最终的声音场景类别。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910960583.5/,转载请声明来源钻瓜专利网。