[发明专利]一种说话人自适应的多视角对话情感识别方法及系统有效
申请号: | 202111141588.9 | 申请日: | 2021-09-28 |
公开(公告)号: | CN113571097B | 公开(公告)日: | 2022-01-18 |
发明(设计)人: | 阮玉平;李太豪;汪芬;郑书凯 | 申请(专利权)人: | 之江实验室 |
主分类号: | G10L25/63 | 分类号: | G10L25/63;G10L15/22;G06F40/35 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 孙孟辉;杨小凡 |
地址: | 310023 浙江省杭州市余*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 说话 自适应 视角 对话 情感 识别 方法 系统 | ||
1.一种说话人自适应的多视角对话情感识别方法,其特征在于包括如下步骤:
S1,将多轮对话中,每条对话语句的说话人,映射到对应的说话人ID序列,去除说话人具体身份;
S2,对进行说话人ID标记后的多轮对话,进行融合说话人信息的上下文编码,得到对话中每个语句的上下文编码表征;
S3,基于上下文编码表征,进行说话人自适应的多视角全局对话信息融合编码,得到对话的多视角全局融合信息,包括如下步骤:
S31,根据说话人ID序列,分别从说话人自身视角、他者视角、全局视角构建掩码矩阵:;
S32,将上下文编码表征,分别输入到不同的单层多头注意力网络:,三个网络分别接收作为对应的注意力控制掩码,分别输出对话的多视角全局融合表征向量集:、、;
S4,将多视角的全局融合信息,进行自适应的信息汇总,并对语句最终情感进行识别,包括如下步骤:
S41,将语句多视角全局融合表征向量、,作为向量序列,输入单层多头注意力网络中,网络的编码输出经池化全连接,得到语句的m维特征向量,其中m表示情感类别数;
S42,将特征向量进行归一化处理,得到语句属于每一类情感的概率值,取类别概率值最大的作为最终情感类别。
2.根据权利要求1所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S31中对于的元素,其满足如下条件:
对于的元素,其满足如下条件:
对于的元素,其满足如下条件:
其中i表示注意力机制中查询语句query的索引,j表示注意力机制中接收查找语句key的索引。
3.根据权利要求1所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S42中的特征向量,将其作为Softmax算子的自变量,计算Softmax的最终值:
其中为常量,将作为语句属于每一类情感的概率值。
4.根据权利要求1所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S2包括如下步骤:
S21,将多轮对话中各语句以分隔符为间隔拼接起来,得到包含所有对话语句的字符长序列;
S22,根据字符长序列和说话人ID序列,构建对应的说话人ID字符序列;
S23,根据字符长序列,计算注意力掩码矩阵,用于编码阶段,控制字符长序列中每个分隔符只关注到其后紧邻的语句中的字符;控制其不能关注未来语句中的任何字符;
S24,在获取说话人ID标记后的多轮对话的嵌入阶段,将说话人ID字符序列映射为说话人ID嵌入向量矩阵,与对话向量矩阵、对话类型向量矩阵、对话位置向量矩阵进行叠加,并输出至编码阶段;
S25,取各分隔符在编码阶段输出的编码向量,作为对应对话语句的上下文编码表征。
5.根据权利要求4所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S21中的分隔符为[SEP],字符长序列为:
其中表示对话中第
6.根据权利要求4所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S22中说话人ID字符序列为:
其中表示第i个语句对应的说话人ID,表示第i个语句对应的字符序列的长度。
7.根据权利要求4所述的一种说话人自适应的多视角对话情感识别方法,其特征在于所述S25中的上下文编码表征,构成融入说话人信息的对话语句上下文编码表征矩阵:
其中表示语句的上下文编码表征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111141588.9/1.html,转载请声明来源钻瓜专利网。