[发明专利]基于预训练模型BERT的多粒度融合方面级情感分析方法在审
申请号: | 202210214958.5 | 申请日: | 2022-03-04 |
公开(公告)号: | CN115374789A | 公开(公告)日: | 2022-11-22 |
发明(设计)人: | 方义秋;彭杨 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06F40/211;G06N3/04;G06N3/08 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 黄宗波 |
地址: | 400065*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 训练 模型 bert 粒度 融合 方面 情感 分析 方法 | ||
1.基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:包括以下步骤,
S1、将文本输入到预训练模型中获取预训练词向量,并获取token-level的关于方面项的上下文信息s;
S2、通过LSTM长短期记忆网络来学习句子的上下文句子信息h;
S3、将LSTM的输出h作为句子级别注意力层的输入,计算每个句子的重要程度,得到句子级别注意力层的输出u;
S4、将句子级别注意力层的输出u进行维度变换为与方面级输出s一致,再将方面级的输出s与句子级别注意力层的输出u进行调和,得到最终的输出O;
S5、将最终的输出O作为情感分类层的输入,通过softmax计算情感极性的概率P,并根据损失函数进行损失,再采用反向传播算法进行优化。
2.根据权利要求1所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述步骤S1中,将文本输入到预训练模型中获取预训练词向量的方法具体为:
E={e1,e2,L,el}
其中,E表示预训练词向量,ei表示文档中的第i个词向量表示,l表示输入文本的长度。
3.根据权利要求2所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述步骤S1中,采用平均池化的方法获取所述token-level的关于方面项的上下文信息s。
4.根据权利要求1所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述S2步骤中,通过LSTM长短期记忆网络来学习句子的上下文句子信息h的具体方法为:
5.根据权利要求1所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述S3步骤中,将双向LSTM的输出作为句子级别注意力层的输入,计算每个句子重要程度的方法为:
sh=tanh(whhs+bh)
其中,wh表示权重,bh表示偏置,sh表示注意力得分,ah表示经过softmax函数之后得到的权重概率,u表示句子级别注意力层的输出。
6.根据权利要求1所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述步骤S4中,将句子级别的输出进行维度变换为与方面级输出s一致,再将方面级的输出与句子级的输出进行调和,得到最终的输出O的具体方法为:
z=f(wuu+bu)
gz=σ(wzz+bz)
o=gze z+(1-gz)e s
其中,所述f表示全连接层,z表示全脸层的维度变换后的输出,wu表示全连接层的权重,bu表示全连接层的偏置,σ表示sigmoid激活函数,wz表示sigmoid的权重,bz表示sigmoid的偏置,gz的输出在(0,1)区间。
7.根据权利要求6所述的基于预训练模型BERT的多粒度融合方面级情感分析方法,其特征在于:所述步骤S5中,将最终的输出O作为情感分类层的输入,通过softmax计算情感极性的概率P,具体为:
P=Soft max(wpo+bp)
其中,wp表示情感分类层的权重,bp表示情感分类层的偏置,P表示预测的情感概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210214958.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:控制装置、系统、车辆和控制方法
- 下一篇:一种磷酸二苯-异辛酯的制备方法