[发明专利]评论扩展方法及装置在审
申请号: | 202010525544.5 | 申请日: | 2020-06-10 |
公开(公告)号: | CN111723548A | 公开(公告)日: | 2020-09-29 |
发明(设计)人: | 杨震;李彦;亓超;马宇驰 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F40/126 | 分类号: | G06F40/126;G06F16/9535;G06N3/08 |
代理公司: | 北京市立方律师事务所 11330 | 代理人: | 张筱宁 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 评论 扩展 方法 装置 | ||
1.一种评论扩展方法,其特征在于,包括:
获取待扩展的源评论及所述源评论对应的源新闻;
将所述源评论及所述源新闻输入预先训练的神经网络模型,得到针对所述源评论及所述源新闻的多个目标评论;
其中,所述神经网络模型是根据包括样本评论及所述样本评论对应的样本新闻的训练对,和所述训练对对应的评论结果进行训练得到的、并用于对所述样本评论进行扩展的模型。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型的训练过程,包括:
获取包括所述样本评论和所述样本评论对应样本新闻的训练对,及所述训练对对应的评论结果,其中所述评论结果可从所述样本新闻对应的评论集中获取;
利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述初始神经网络模型包括基于自注意力机制的Transformer模型。
4.根据权利要求3所述的方法,其特征在于,所述利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型,包括:
将所述训练对输入所述基于自注意力机制的Transformer模型,其中,所述基于自注意力机制的Transformer模型包括编码器和解码器;
利用添加所述自注意力机制的编码器分别提取样本新闻及样本评论的特征信息,分别得到所述样本新闻的新闻特征向量及所述样本评论的评论特征向量;
利用预设插值函数调节所述新闻特征向量与所述评论特征向量的系数得到第一特征向量;
将所述第一特征向量与所述评论结果输入所述基于自注意力机制的解码器中,利用所述基于自注意力机制的解码器得到所述评论结果对应的第二特征向量;
将所述第二特征向量与所述评论结果基于交叉熵损失进行梯度运算,利用梯度下降法完成所述基于自注意力机制的Transformer模型的训练。
5.根据权利要求4所述的方法,其特征在于,所述预设插值函数服从均匀分布进行采样。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述将所述源评论及所述源评论对应的源新闻输入预先训练的神经网络模型,得到针对所述源评论及所述源评论对应的源新闻的多个目标评论,包括:
将所述源评论及所述源评论对应的源新闻输入预先训练的基于自注意力机制的Transformer模型;
基于所述预先训练的Transformer模型中的编码器提取所述源评论结合所述源新闻对应的多个目标特征向量;
利用预设的解码方法通过所述预先训练的Transformer模型中的解码器对所述多个目标特征向量进行解码,得到所述多个目标特征向量分别对应的多个目标评论。
7.根据权利要求6所述的方法,其特征在于,所述解码方法包括以下任一项:
Greedy Search解码方法、Beam Search解码方法或Sampling解码方法。
8.一种评论扩展装置,其特征在于,包括:
第一获取模块,用于获取待扩展的源评论及所述源评论对应的源新闻;
第一输入模块,用于将所述源评论及所述源评论对应的源新闻输入预先训练的第一神经网络模型,得到针对所述源评论及所述源新闻的多个目标评论;其中,所述神经网络模型是根据包括样本评论及所述样本评论对应的样本新闻的训练对,和所述训练对对应的评论结果进行训练得到的、并用于对所述样本评论进行扩展的模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010525544.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种内科急救箱
- 下一篇:一种显示面板及显示装置