[发明专利]一种基于增强对称正定矩阵的脑电情绪识别方法在审
申请号: | 202111271233.1 | 申请日: | 2021-10-29 |
公开(公告)号: | CN114139572A | 公开(公告)日: | 2022-03-04 |
发明(设计)人: | 高云园;孙新宇;范凌霄;张卫;张卷卷 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 浙江千克知识产权代理有限公司 33246 | 代理人: | 周雷雷 |
地址: | 310018 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 增强 对称 正定 矩阵 情绪 识别 方法 | ||
本发明公开了一种基于增强对称正定矩阵的脑电情绪识别方法。本发明首先采用小波包变换提取脑电信号的时频域信息;然后通过协方差方法将时频域信息嵌入到对称正定矩阵中得到增强的对称正定矩阵;最后将增强的对称正定矩阵在黎曼流形空间进行降维并映射到切空间中,并在切空间中使用支持向量机进行分类。本发明通过对脑电信号进行效价、唤醒度二分类以及四分类,来评估情绪识别的准确性。本发明在公开数据集DEAP上得到了验证,并与几种最新的方法进行了比较。实验结果表明,本发明取得了较好的分类效果。
技术领域
本发明属于信号处理领域,涉及一种基于增强对称正定矩阵的脑电情绪识别方法。
背景技术
情绪是一种复杂的心理和生理状态,在日常生活中,尤其是人际交往中起着重要作用。近年来,随着人机交流需求的不断提高,情感识别受到越来越多的关注。情感识别的目的是建立一个能够识别人类情感并给出正确反馈的自动化系统,使人机交互过程更加友好。
在过去的几十年中,人们提出了许多基于不同模式的情感识别方法,如面部表情、手势、声音和生理信号。与其他信号相比,脑电信号(Electroencephalography,EEG)存在于人的中枢神经系统,不易伪装,能反映个体真实的情绪状态。因此,基于脑电信号的情感识别越来越受到人们的重视。
近年来,许多研究人员提出了许多利用EEG进行情绪识别的方法。这些方法通常从脑电信号的时域或频域中提取相应的特征,如事件相关电位(ERP)、统计特征(均值、标准差、分形维数和一阶差)、功率谱密度、自回归系数等。Linet等人提取了五个频带的功率谱密度和不对称特征,并使用两个分类器,多层感知器和支持向量机,对四种情绪状态进行分类。J.Atkinson等人从统计特征、带宽功率和分形维数三个方面提取了EEG信号的特征,并使用支持向量机对情绪进行分类。
上述研究大多基于提取时域和频域特征或两者结合,而空域特征往往被忽略。近年来,基于黎曼几何的分类算法在脑机接口领域得到了广泛的应用。黎曼几何提供了一些黎曼度量,可以直接应用协方差矩阵中的空域信息,而无需源分离步骤。然而情绪状态的变化涉及复杂的大脑活动,其EEG信号的特征同时分布在时域-频域-空间域,若能有效地结合这些特征将会提高情绪识别的准确性。
发明内容
为了能够准确识别出不同的情绪状态,本发明提出了一种基于增强对称正定矩阵的脑电情绪识别方法。
本发明首先采用小波包变换(Wavelet Packet Transform)提取脑电信号的时频域信息;然后通过协方差方法将时频域信息嵌入到对称正定(Symmetric PositiveDefinite,SPD)矩阵中得到增强的对称正定矩阵;最后将增强的SPD矩阵在黎曼流形空间进行降维并映射到切空间中,并在切空间中使用支持向量机进行分类。通过对脑电信号进行分类,来评估情绪识别的准确性。
本发明具有以下有益效果:
提取脑电信号的特征用来情绪识别时,传统的方法主要提取其时域、频域或者二者结合的信息,忽略了大量空域信息;而基于黎曼几何的分类方法可以提供空域信息,但忽略了其他信息,并且随着通道数的增加,其矩阵维度也将大幅增加导致维度灾难问题。因此本发明通过小波包变换提取信号的时频域信息并将其嵌入到对称正定矩阵中,然后设计了在黎曼流形空间中的降维算法对增强的对称正定矩阵进行降维,最后将这些矩阵映射到切平面中对多种情绪进行分类识别。本发明一方面将时频域信息嵌入到对称正定矩阵中,利用时频域以及空域的特征信息来提高情绪识别的准确率,另一方面通过黎曼流形空间的降维算法,避免了维度灾难问题,降低了计算的复杂度。
附图说明
图1为本发明的实施流程图;
图2为增强对称正定矩阵样本;
图3为降维后的对称正定矩阵维度。
具体实施方式
本发明方法主要包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111271233.1/2.html,转载请声明来源钻瓜专利网。