[发明专利]一种用于目标情感分类的深度记忆网络模型及其分类方法在审
申请号: | 201910220139.X | 申请日: | 2019-03-22 |
公开(公告)号: | CN110008339A | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 荆晓远;李晶;左梅;訾璐 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F17/27;G06K9/62 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 罗飞 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 上下文向量 记忆网络 目标向量 情感分类 目标上下文 交互分类 情感极性 输入模块 分类 句子 注意力 技术效果 交互计算 交互信息 模型预测 情感信息 外部存储 有效识别 文本 融入 | ||
1.一种用于目标情感分类的深度记忆网络模型,其特征在于,包括:
输入模块,用于将句子划分为目标向量和对应的上下文向量,其中,上下文向量作为外部记忆被存储;
注意力模块,用于基于输入的目标向量从外部存储的上下文向量中获取对应的情感信息,并获得目标上下文表示;
交互分类模块,用于对目标上下文表示与目标向量表示进行交互计算,获得句子文本对指定目标的情感表示,然后将情感表示作为特征进行分类,获得模型预测的情感极性。
2.如权利要求1所述的模型,其特征在于,注意力模块包括第一计算层,其中,第一计算层包括一个注意力函数。
3.如权利要求2所述的模型,其特征在于,注意力模块还包括至少一个第二计算层,其中,第二计算层包括一个注意力函数和一个线性函数,并将前一个第二计算层的输出作为下一个第二计算层的输入,通过循环计算,获取目标情感信息。
4.一种基于如权利要求1至3任一项权利要求所述的深度记忆网络模型的分类方法,其特征在于,包括:
步骤S1:将评论句子根据给定的预设目标划分成目标以及与目标对应的上下文,并根据单词的词向量,获得目标词向量表示和对应的上下文词向量表示;
步骤S2:将目标向量表示和上下文向量表示输入注意力函数中,计算每个上下文单词对影响目标情感的权重,并对权重和上下文向量进行融合,获得最终的上下文表示;
步骤S3:将上下文表示与目标向量表示进行交互计算,获得句子文本对指定目标的情感表示;
步骤S4:将句子文本对指定目标的情感表示进行线性转换和归一化处理,获得深度记忆网络模型以及模型预测的情感极性;
步骤S5:采用预设训练数据集训练深度记忆网络模型;
步骤S6:基于训练后的模型对待处理的评论句子文本进行情感分类。
5.如权利要求4所述的方法,其特征在于,在步骤S2之前,所述方法还包括:
判断预设循环次数是否等于0,如果等于0,则执行步骤S2;
如果大于0,则将目标向量表示和上下文向量表示输入注意力函数中,计算每个上下文单词对影响目标情感的权重大小,同时将目标向量进行线性转换,再将融合了权重信息的上下文表示与目标线性转换表示相加,作为接下来的运算输入,循环执行该步骤,直到完成预设循环次数,输出向量表示;将输出的向量表示作为步骤S2中的目标向量,执行步骤S2。
6.如权利要求1所述的方法,其特征在于,步骤S1具体包括:
步骤S1.1:获取外部用大型语料集训练好的词向量;
步骤S1.2:给定句子其中wi表示目标,{w1,w2,...,wi-1,wi+1,...,wn-1,wn}表示目标的上下文,n表示句子的长度,将所有单词的词向量集合构成一个词向量矩阵其中d表示词向量的维度,|V|表示词汇表的大小;通过索引词向量矩阵,将每个单词wi转换成对应的词向量表示对应的上下文向量表示的形式为{v1,v2,...,vi-1,vi+1,...,vn-1,vn},将目标视为一个单词,即vt,如果目标为短语,即包含多个单词,则目标词向量由短语的组成词向量的平均值表示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910220139.X/1.html,转载请声明来源钻瓜专利网。