[发明专利]一种基于语音的情绪识别方法及装置在审
申请号: | 201811285508.5 | 申请日: | 2018-11-02 |
公开(公告)号: | CN111145785A | 公开(公告)日: | 2020-05-12 |
发明(设计)人: | 张冲;叶荣华;刘松;韦梁 | 申请(专利权)人: | 广州灵派科技有限公司 |
主分类号: | G10L25/63 | 分类号: | G10L25/63 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 510620 广东省广州市高新技术产*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 语音 情绪 识别 方法 装置 | ||
本发明公开一种基于语音的情绪识别方法及装置,包括以下步骤:1)分别收集人物喜、怒和哀的情绪声音数据;2)采用PCA算法分别对喜、怒和哀的情绪声音数据分别进行降维处理;3)然后对降维处理后的喜、怒和哀的情绪声音数据进行端点检测提取出梅尔‑频率倒谱系数、共振峰和过零率三个特征参数,对特征参数建立高斯混合模型,分别训练出喜、怒和哀的情感声音的高斯混合模型,并建立由喜‑高斯混合模型、怒‑高斯混合模型和哀‑高斯混合模型的情感声音数据库;4)收集待识别的语音片段;该基于语音的情绪识别方法识别准确率高。
技术领域
本发明涉及一种基于语音的情绪识别方法及装置。
背景技术
情绪是综合了人的感觉、思想和行为的一种状态,在人与人的交流中发挥着重要作用。情绪是一种综合了人的感觉、思想和行为的状态,它包括人对外界或自身刺激的心理反应,包括伴随这种心理反应的生理反应。在人们的日常工作和生活中,情绪的作用无处不在。在医疗护理中,如果能够知道患者、特别是有表达障碍的患者的情绪状态,就可以根据患者的情绪做出不同的护理措施,提高护理量。在产品开发过程中,如果能够识别出用户使用产品过程中的情绪状态,了解用户体验,就可以改善产品功能,设计出更适合用户需求的产品。在各种人-机交互系统里,如果系统能识别出人的情绪状态,人与机器的交互就会变得更加友好和自然。对情绪进行分析和识别是神经科学、心理学、认知科学、计算机科学和人工智能等领域的一项重要的交叉学科研究课题,因此,对情绪进行识别的方法以供给各个领域使用。
发明内容
本发明要解决的技术问题是提供一种基于语音的情绪识别方法及装置,识别准确率高。
为解决上述问题,本发明采用如下技术方案:
一种基于语音的情绪识别方法,包括以下步骤:
1)分别收集人物喜、怒和哀的情绪声音数据;
2)采用PCA算法分别对喜、怒和哀的情绪声音数据分别进行降维处理;
3)然后对降维处理后的喜、怒和哀的情绪声音数据进行端点检测提取出梅尔-频率倒谱系数、共振峰和过零率三个特征参数,对特征参数建立高斯混合模型,分别训练出喜、怒和哀的情感声音的高斯混合模型,并建立由喜-高斯混合模型、怒-高斯混合模型和哀-高斯混合模型的情感声音数据库;
4)收集待识别的语音片段;
5)将收集到的语音片段通过抗混叠滤波、模数变换、预加重预处理以及端点检测,然后提取出梅尔-频率倒谱系数、共振峰和过零率三个特征参数后,对特征参数建立对比高斯混合模型,随后与情感声音数据库内的喜-高斯混合模型、怒-高斯混合模型和哀-高斯混合模型分别进行匹配;
6)对比高斯混合模型与情感声音数据库内的喜-高斯混合模型、怒-高斯混合模型和哀-高斯混合模型中的某一个模型的重叠率大于设定的阈值,则判断为与该模型相同的情绪。
作为优选,所述阈值的设定值为38-70%。
作为优选,情绪识别方法还具有步骤7)对判断后的对比高斯混合模型,进行与喜、怒和哀情绪相对应的标记,并更新到情感声音数据库内。
作为优选,所述语音片段持续时间为2-6s。
本发明还提供一种基于语音的情绪识别装置,包括
声音采集模块,用于收集待识别的语音片段;
音频处理模块,用于对收集到的人物喜、怒和哀的情绪声音数据进行降维处理,以及对收集到的语音片段进行过抗混叠滤波、模数变换和预加重预处理;
数据处理模块,用于进行端点检测,提取出梅尔-频率倒谱系数、共振峰和过零率三个特征参数,对特征参数建立高斯混合模型,分别训练出喜、怒和哀的情感声音的高斯混合模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州灵派科技有限公司,未经广州灵派科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811285508.5/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种模式化图像处理技术
- 下一篇:一种牙膏转接头