[发明专利]一种基于动态时间规整的哼唱音准评价方法有效
申请号: | 202210332565.4 | 申请日: | 2022-03-30 |
公开(公告)号: | CN114758560B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 吴清强;黄泽斌;姚俊峰;曾祥健;刘震;仁望龙 | 申请(专利权)人: | 厦门大学 |
主分类号: | G09B15/00 | 分类号: | G09B15/00;G10L25/51 |
代理公司: | 厦门市新华专利商标代理有限公司 35203 | 代理人: | 朱凌 |
地址: | 361000 福建*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 动态 时间 规整 哼唱 音准 评价 方法 | ||
本发明提供了音准识别技术领域的一种基于动态时间规整的哼唱音准评价方法,包括如下步骤:步骤S10、获取大量的哼唱数据,并对各所述哼唱数据进行预处理;步骤S20、提取预处理后的所述哼唱数据中的音频特征;步骤S30、对各所述音频特征进行预处理;步骤S40、基于动态时间规整算法创建一音准评价模型,利用预处理后的所述音频特征对音准评价模型进行训练;步骤S50、利用训练后的所述音准评价模型对待评价音频进行评价,生成评价结果。本发明的优点在于:极大的提升了音准评价的准确性。
技术领域
本发明涉及音准识别技术领域,特别指一种基于动态时间规整的哼唱音准评价方法。
背景技术
音准练习作为音乐教育的基础,对于歌唱者而言是非常重要的,在日常的哼唱练习中,只有把音准练好,才能使歌声更加丰富悦耳。进入数字时代后,音乐在线教育逐渐凸显优势,越来越受到重视。由于音乐教育本身的专业性和艺术性,在学生的哼唱评价方面,仍然需要教师的人工参与才能完成,无法给学生一个实时的教学反馈。
虽然市面上存在一些音准评价系统,但是现有的音准评价系统是围绕娱乐方向进行评价的,侧重点在于与用户的娱乐互动,不会特别关注哼唱评价结果的准确性,对于评价结果也缺乏可解释性,不适用于中小学生的哼唱考试。
因此,如何提供一种哼唱音准智能评价方法,实现提升音准评价的准确性,成为一个亟待解决的技术问题。
发明内容
本发明要解决的技术问题,在于提供一种基于动态时间规整的哼唱音准评价方法,实现提升音准评价的准确性。
本发明是这样实现的:一种基于动态时间规整的哼唱音准评价方法,包括如下步骤:
步骤S10、获取大量的哼唱数据,并对各所述哼唱数据进行预处理;
步骤S20、提取预处理后的所述哼唱数据中的音频特征;
步骤S30、对各所述音频特征进行预处理;
步骤S40、基于动态时间规整算法创建一音准评价模型,利用预处理后的所述音频特征对音准评价模型进行训练;
步骤S50、利用训练后的所述音准评价模型对待评价音频进行评价,生成评价结果。
进一步地,所述步骤S10具体为:
获取大量的哼唱数据,并对各所述哼唱数据依次进行格式转换、去除伴奏、去除首尾无声段以及降噪的预处理。
进一步地,所述格式转换具体为:转换为wav格式,并设定音频采样率为44100、声道数为2。
进一步地,所述步骤S20具体包括:
步骤S21、预判预处理后的所述哼唱数据的音频时长是否短于预设的实际时长,若否,说明不存在漏唱,进入步骤S22;若是,说明存在漏唱,进入步骤S23;
步骤S22、利用Python编程语言提取所述哼唱数据中每一个字出现的时间点,基于各所述时间点将哼唱数据分割为若干个第一音频片段,利用Python编程语言的依赖库提取各所述第一音频片段的频率并求取第一平均值,将所述第一平均值作为音频特征;
步骤S23、利用Python编程语言的依赖库对所述哼唱数据进行分帧,以一帧为单位将所述哼唱数据分割为若干个第二音频片段,利用依赖库提取各所述第二音频片段的频率并求取第二平均值,将所述第二平均值作为音频特征。
进一步地,所述步骤S30具体为:
将各所述音频特征与对应的标准频率进行做差比较,进而对各所述音频特征进行音高标记,进而完成各所述音频特征的预处理;
进一步地,所述音高为高八度或者低八度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210332565.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种对甘薯小象甲进行RNAi的方法及装置
- 下一篇:一种钢丝绳扭力释放器