[发明专利]基于多任务学习的网民情绪识别方法、系统及电子设备有效
申请号: | 202110906528.5 | 申请日: | 2021-08-09 |
公开(公告)号: | CN113722477B | 公开(公告)日: | 2023-09-19 |
发明(设计)人: | 韩勇;李青龙;骆飞;赵冲 | 申请(专利权)人: | 北京智慧星光信息技术有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06N3/0442;G06N3/08 |
代理公司: | 北京智宇正信知识产权代理事务所(普通合伙) 11876 | 代理人: | 李明卓 |
地址: | 100080 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 任务 学习 网民 情绪 识别 方法 系统 电子设备 | ||
1.一种基于多任务学习的网民情绪识别方法,其特征在于,包括:
获取训练集,所述训练集中包括多个训练文本;
根据训练集得到每一个训练文本对应的文字信息、表情符号信息以及原文信息;
分别对每一个训练文本对应的文字信息、表情符号信息以及原文信息进行向量化处理,得到文字信息对应的文字向量、表情符号信息对应的表情符号向量以及原文信息对应的原文向量;
将每一个训练文本的文字信息对应的文字向量、表情符号信息对应的表情符号向量以及原文信息对应的原文向量分别输入到共享模型中,得到每一个训练文本的文字信息对应的文字特征矩阵、表情符号信息对应的表情符号特征矩阵以及原文信息对应的原文特征矩阵;所述共享模型包括bi-lstm和attention模型;
attention模型的计算公式如下所示,
ui=tanh(wu*hi+bu)
St=tanh(ws*St-1+wv*vt+bv)
其中,uw为初始化随机生成的注意力参数矩阵,后续用来学习的参数;tanh为双曲正切激活函数;hi为每个时刻隐状态矩阵,wu为学习参数;bu为偏置;St-1为t-1时刻输出的隐状态,St为通过attention注意力机制后的隐状态,ws和wv为训练参数,bv为偏置参数;
分别将每一个训练文本的文字信息对应的文字特征矩阵、表情符号信息对应的表情符号特征矩阵以及原文信息对应的原文特征矩阵通过softmax计算生成每一个训练文本的文字信息对应的文字概率值、表情符号信息对应的表情符号概率值以及原文信息对应的原文概率值;
分别根据每一个训练文本对应的文字概率值、表情符号概率值、原文概率值、文字真实值、表情符号真实值和原文真实值得到每一个训练文本对应的总损失函数值;
分别根据每一个训练文本对应的文字概率值、表情符号概率值、原文概率值、文字真实值、表情符号真实值和原文真实值得到每一个训练文本对应的总损失函数值的步骤中,包括:分别根据每一个训练文本对应的文本概率值、表情符号概率值、原文概率值、文本真实值、表情符号真实值和原文真实值得到每一个训练文本中文字信息对应的文字损失函数值、表情符号信息对应的表情符号损失函数值和原文信息对应的原文损失函数值;根据每一个训练文本对应的文字损失函数值、表情符号损失函数值和原文损失函数值分别得到每一个训练文本对应的融合损失函数值;根据融合损失函数对文字损失函数值、表情符号损失函数值和原文损失函数值进行平滑处理,得到每一个训练文本对应的总损失函数;
根据每一个训练文本的总损失函数值进行误差反向传播更新模型参数得到多个情绪识别模型;
获取测试集,所述测试集中包括多个测试文本;
将多个测试文本分别输入到每一个情绪识别模型中,得到每一个情绪识别模型对应的acc和f1值;
将最大acc和f1值对应的模型作为最优情绪识别模型;
获取待识别文本;
将待识别文本输入至最优情绪识别模型得到待识别文本对应的情绪预测类别,将所述情绪预测类别对应的情绪作为待识别文本对应的情绪。
2.根据权利要求1所述的基于多任务学习的网民情绪识别方法,其特征在于,分别对每一个训练文本对应的文字信息、表情符号信息以及原文信息进行向量化处理,得到文字信息对应的文字向量、表情符号信息对应的表情符号向量以及原文信息对应的原文向量的步骤中,包括:
分别对每一个训练文本对应的文字信息进行词向量化得到文字信息中每一个单词对应的词向量,将词向量作为单词对应的文字向量;
分别对每一个训练文本对应的表情符号信息进行表情符号向量化得到表情符号信息中每一个表情符号对应的表情符号向量;
分别根据每一个训练文本对应的文字信息中每一个单词对应的词向量和表情符号信息中每一个表情符号对应的表情符号向量得到每一个训练文本对应的原文向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京智慧星光信息技术有限公司,未经北京智慧星光信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110906528.5/1.html,转载请声明来源钻瓜专利网。