[发明专利]一种基于迭代k-means算法的歌曲聚类方法有效
申请号: | 201811010257.X | 申请日: | 2018-08-31 |
公开(公告)号: | CN109065071B | 公开(公告)日: | 2021-05-14 |
发明(设计)人: | 戴鑫铉;江春华;龚超;徐若航;刘耀方;王杰 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G10L25/24 | 分类号: | G10L25/24;G10L25/63;G06K9/62 |
代理公司: | 成都君合集专利代理事务所(普通合伙) 51228 | 代理人: | 张鸣洁 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 means 算法 歌曲 方法 | ||
1.一种基于迭代k-means算法的歌曲聚类方法,其特征在于:提取曲库中歌曲的MFCC向量作为声学特征,同时运用迭代k-means算法对歌曲进行情感识别和情感归类;运用两次迭代k-means算法对歌曲进行情感识别和情感归类;
所述歌曲聚类方法,具体包括以下步骤:
步骤S1:分时段提取曲库中歌曲的梅尔频率倒谱系数,得到每首歌曲各时段每一帧的MFCC向量;
步骤S2:对步骤S1中所有MFCC向量进行歌曲ID标识,将各个MFCC向量所属歌曲信息汇整成数据集;
步骤S3:将步骤S2中的数据集作为输入数据进行第一次k-means聚类,获取各个MFCC向量所属的簇信息,得到MFCC向量的聚类结果;
步骤S4:由每首歌曲所含MFCC向量在各个簇的比例生成与该歌曲对应的K维标签向量集;
步骤S5:以曲库中每首歌曲的K维标签向量集作为输入数据进行第二次k-means聚类,得到歌曲分类结果。
2.根据权利要求1所述的一种基于迭代k-means算法的歌曲聚类方法,其特征在于:所述步骤S5中第二次k-means聚类的簇数不由人工指定,而是基于“罩盖思想”根据曲库中的歌曲数量智能决定;具体实现步骤如下:
步骤S5-1:设置两个距离阈值D1和D2,且D1D2;
步骤S5-2:将曲库中所有歌曲的K维标签向量集装入一个容器中,并建立一个罩盖标签向量集合C等待填充;
步骤S5-3:从容器中所有的K维标签向量集中随机选择一个不属于罩盖标签向量集合C的标签向量p,并计算标签向量p与罩盖标签向量集合C中每个向量的欧式距离:
若罩盖标签向量集合C为空,则将标签向量p加入罩盖标签向量集合C执行下一步;
若标签向量p与罩盖标签向量集合C中每个向量的距离均大于D1,则将标签向量p作为一个新罩盖标签向量加入罩盖标签向量集合C;
若标签向量p与罩盖标签向量集合C中某一向量的距离小于D1,则将标签向量p加入以该向量为中心的罩盖;
步骤S5-4:若标签向量p与罩盖标签向量集合C中某一向量的距离小于D2,则将标签向量p从容器C中删除并执行下一步;
步骤S5-5:重复S5-3和S5-4步骤直到容器内为空,此时罩盖标签向量集合C中的K维标签向量集为第二次k-means聚类的初始化K2个类别中心向量;
步骤S5-6:开始第二次k-means聚类,计算曲库中各歌曲的K维标签向量集中除这K2个类别中心向量外所有标签向量与这K2个类别中心向量的欧式距离,将每个标签向量划归到离它最近的类别中心向量所在的簇中;
步骤S5-7:计算K2个新的簇的类别中心向量,即求各维平均值的标准k-means算法;
步骤S5-8:重复步骤S5-6与S5-7直到K2个类别中心向量不再变化或达到迭代次数;最终得到曲库中所有歌曲的聚类结果,将听觉感知相近的歌曲分类到一起;
K2为第二次k-means的聚类簇数,也是曲库歌曲最终分类的类别总数。
3.根据权利要求1所述的一种基于迭代k-means算法的歌曲聚类方法,其特征在于:所述步骤S1的具体步骤包括:
步骤S1-1:对曲库中所有歌曲进行预处理,提取歌曲的开端时段、高潮时段、尾声时段生成三个WAV格式文件作为每首歌曲的代表部分,并对每首歌曲的代表部分进行歌曲ID标识;
步骤S1-2:运用Python语言的scipy库读取并处理所有WAV格式的音频文件,获取信号和频率数据;
步骤S1-3:依次对信号数据进行预加重、分帧、加窗、离散傅里叶变换、梅尔滤波、取对数、离散余弦变换、求一阶差分、将MFCC系数与其一阶差分结合得到每一帧的MFCC向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811010257.X/1.html,转载请声明来源钻瓜专利网。