[发明专利]一种多人对话系统的情绪识别模型在审
申请号: | 202010164874.6 | 申请日: | 2020-03-11 |
公开(公告)号: | CN111460143A | 公开(公告)日: | 2020-07-28 |
发明(设计)人: | 林小颖;徐向民;邢晓芬;殷瑞祥;郭锴凌 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 王东东 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 对话 系统 情绪 识别 模型 | ||
1.一种多人对话系统的情绪识别模型,其特征在于,包括:
S1提取数据集中的特征,所述特征包括文本特征及语音特征;
S2根据文本特征及语音特征,构建改进的DialogueRNN网络;
S3训练改进的DialogueRNN网络,得到最终的声学模型即情绪识别模型。
2.根据权利要求1所述的情绪识别模型,其特征在于,所述改进的DialogueRNN网络是在基础的DialogueRNN网络中引入Listener的Party State和不同人的Emotion State,得到改进后的DialogueRNN网络。
3.根据权利要求1所述的情绪识别模型,其特征在于,所述S2根据文本特征及语音特征,构建改进的DialogueRNN网络,具体为:
将当前时刻的文本特征及语音特征输入Global GRU提取上下文信息的特征gt;
上下文信息的特征(g1g2...gt-1)通过Attention机制得到Context Vector(ct);
将Context Vector(ct)和gt拼接后和Speaker上一时刻的Party State(Ps,t-1)通过Party GRU得到t时刻的Party State(Ps,t);
上下文信息的特征gt和每个listener在前n个时刻说的语句信息利用Attention机制得到ci,t;
将ci,t和gt拼接后和Listener上一时刻的Party State(PLi,t-1)得到t时刻的PartyState(PLi,t),
将每个人前t时刻的Emotion State通过Attention机制后和Party State(pi,t)送进Emotion GRU得到每个人第t时刻的Emotion State(ei,t);
选择Speaker的Emotion State送进DNN网络进行分类,得到改进的DialogueRNN网络。
4.根据权利要求3所述的情绪识别模型,其特征在于,listener的Party state,其计算公式如下:
ct,i=α[g1,i,g2,i,...,gk,i]T
其中,gt代表第t时刻Global GRU的输出,代表gt在第t时刻影响第i个Listener的Party State,g1,i代表第i个Listener的第一句话,g2,i代表第i个Listener的第二句话,其他依次类推,Wα是一个矩阵,softmax函数将向量转化成概率。
5.根据权利要求3所述的情绪识别模型,其特征在于,引入不同人的Emotion State,其数学公式如下:
αi=soft max(AT[e0,i,e1,i,...,et-1,i])
其中,gt代表第t时刻Global GRU的输出,et,i是第t时刻第i个人的Emotion State,是gt在t时刻影响第i个人的Party State,A是一个向量,softmax函数将向量转化成概率。
6.根据权利要求1所述的情绪识别方法,其特征在于,所述采用梯度下降法训练改进后的DialogueRNN网络。
7.根据权利要求3所述的情绪识别方法,其特征在于,所述Attention机制中采用多种函数获取加权值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010164874.6/1.html,转载请声明来源钻瓜专利网。