[发明专利]一种基于对抗性互信息的文本生成方法有效
申请号: | 202010560164.5 | 申请日: | 2020-06-18 |
公开(公告)号: | CN111767701B | 公开(公告)日: | 2023-03-07 |
发明(设计)人: | 潘博远;蔡登;金仲明 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06F40/166 | 分类号: | G06F40/166;G06F40/237;G06F40/30 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 彭剑 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 对抗性 互信 文本 生成 方法 | ||
1.一种基于对抗性互信息的文本生成方法,其特征在于,包括以下步骤:
(1)构造并预训练前向模型Pf和后向模型Pb;所述的前向模型和后向模型均包括编码器和解码器,当输入文本后,利用编码器生成一个高维语义向量,然后利用解码器将输入文本和语义向量一起解码为目标文本;
(2)构造训练集数据集,数据集包含源文本和对应的原目标文本;
(3)训练过程中,将训练集的源文本S输入前向模型Pf,生成目标文本T′,此过程优化函数为Pf(T|S);以生成的目标文本T′作为后向模型Pb的输入,生成伪源文本,此过程优化函数为Pb(S|T′);以训练集中的原目标文本T作为后向模型Pb的输入,生成另一个伪源文本,此过程优化函数为Pb(S|T);
(4)构建训练的目标函数,目标函数为:
其中,为生成目标文本的期望;训练目标为:最大化利用原目标文本生成源文本的概率Pb(S|T),利用源文本生成原目标文本的概率Pf(T|S),和能生成使得后向模型生成源文本的伪目标文本的概率Pf(T′|S);同时最小化利用伪目标文本生成源文本的概率Pb(S|T′);
(5)重复步骤(2)~(4),迭代训练,直到目标函数收敛;
(6)训练完毕,进行文本生成的应用,往前向模型Pf中输入文本,生成与输入文本对应的目标文本。
2.根据权利要求1所述的基于对抗性互信息的文本生成方法,其特征在于,步骤(1)中,所述的前向模型和后向模型采用两种不同的序列生成模型,所述的序列生成模型为序列到序列模型和Transformer模型;对于序列到序列模型,编码器和解码器基于循环神经网络或卷积神经网络;对于Transformer模型,编码器和解码器基于多层自注意力机制和点积全连接网络。
3.根据权利要求1所述的基于对抗性互信息的文本生成方法,其特征在于,步骤(1)中,所述的前向模型和后向模型的目标函数都是交叉熵损失函数,公式为
T′=arg max P(T|S)
式中,P(T|S)表示利用源文本生成原目标文本的概率。
4.根据权利要求1所述的基于对抗性互信息的文本生成方法,其特征在于,步骤(3)中,源文本S输入前向模型时使用词向量Glove进行词嵌入。
5.根据权利要求1所述的基于对抗性互信息的文本生成方法,其特征在于,步骤(3)中,生成的目标文本T′输入后向模型时使用词向量Glove进行词嵌入。
6.根据权利要求1所述的基于对抗性互信息的文本生成方法,其特征在于,步骤(3)中,原目标文本T输入后向模型时使用词向量Glove进行词嵌入。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010560164.5/1.html,转载请声明来源钻瓜专利网。