[发明专利]一种基于融合编码的摘要文本生成方法在审
申请号: | 201811308510.X | 申请日: | 2018-11-05 |
公开(公告)号: | CN109522403A | 公开(公告)日: | 2019-03-26 |
发明(设计)人: | 丘金宣;权小军;胡弘康 | 申请(专利权)人: | 中山大学 |
主分类号: | G06F16/34 | 分类号: | G06F16/34;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 词性标注 摘要文本 融合 词向量 句子 生成式 映射 文本 词性特征 局部信息 模型输入 全局信息 输入句子 工具集 构建 传递 转换 保证 | ||
1.一种基于融合编码的摘要文本生成方法,其特征在于,包括以下步骤:
S1:确定输入句子,将句子中每个词进行映射得到词向量;
S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列;在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模块、选择层和解码器;其中:
所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
所述融合模块包括局部编码层、全局编码层和融合层;
其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
2.根据权利要求1所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
3.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述放缩点积注意力Attention计算公式具体为:
其中,为子表征的维度,为50,其中i=1,2,...,6,为子表征的序号。
4.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
K=σ(WkG+bk)*G;
其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
5.根据权利要求4所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
st=GRU(yt-1,ct-1,st-1);
其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
其中:
其中:
其中,为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
rt=Wryt-1+Urct+Vrst;
其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811308510.X/1.html,转载请声明来源钻瓜专利网。