[发明专利]一种基于深度学习的争议焦点生成方法在审
申请号: | 201910980161.4 | 申请日: | 2019-10-15 |
公开(公告)号: | CN110889502A | 公开(公告)日: | 2020-03-17 |
发明(设计)人: | 程茜雅;毕胜;漆桂林;陈佳敏 | 申请(专利权)人: | 东南大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06K9/62;G06F40/289;G06F16/951;G06Q50/18 |
代理公司: | 南京众联专利代理有限公司 32206 | 代理人: | 杜静静 |
地址: | 210096 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 争议 焦点 生成 方法 | ||
1.一种基于深度学习的争议焦点生成方法,其特征在于,所述方法包括以下步骤:
步骤1)从网络中爬取大量裁判文书;
步骤2)利用正则表达式方法对裁判文书进行初步的清洗和整理,抽取出裁判文书中的原告诉称和被告辩称,并对每一对原告诉称和被告辩称进行人工标注,将原告诉称和被告辩称以及人工标注的数据集,以1:1:1的比例构建成训练集;
步骤3)使用深度学习中的seq2seq文本生成模型和attention模型对所述步骤2)最终得到的训练数据集进行训练后,导出该训练数据集对应的生成器模型;
步骤4)对步骤3)中训练得到的文本生成器,利用训练完成的生成器从未标注的原告诉称和被告辩称中生成双方的争议焦点。
2.根据权利要求1所述的基于深度学习的争议焦点生成方法,其特征在于,所述步骤3)具体如下:
1)seq2seq的编码模型融合了上下文文本信息和文本主题信息,首先将原告诉称进行句子级的切分,对于每一个切分好的句子,进行分词,然后将句子放入GRU模型,得到句子的最终表示;
hp,it=GRU(xp,it,hp,it-1),t∈[1,r];
xp,it表示原告诉称的第i句第t个词的词向量,词向量通过word2vec训练得到,hp,it-1表示原告诉称第i句的t-1状态的隐状态,最终得到第r步的隐状态;
2)利用第r步的隐状态和每一步的隐状态计算attention值,并将attention计算得到的权重,乘以相应的隐状态向量,最终得到的计算向量即是句子的向量表示,计算公式如下所示:
up,it=tanh(Wωhp,it+bω);
sp,i=∑tαp,ithp,it;
其中,hp,it表示GRU中的原告诉称中第i个词的隐状态表示,Wω和bω表示待调节的参数,最终得到sp,i,sp,i是原告诉称的第i个句子的嵌入表示,对于原告诉称,可以得到句子序列sp,1,sp,2……,sp,m。将句子序列输入到GRU模型中,得到原告诉称的m个句子的总体表示;
hp,i=GRU(sp,i,hp,i-1),i∈[1,m];
其中sp,i代表第i句子的原告诉称,hp,i-1代表上一步的输出的隐状态,m代表原告诉称的句子长度,最终得到最后的原告诉称表示,同理可得到最终的被告辩称。
3.根据权利要求2所述的基于深度学习的争议焦点生成方法,其特征在于,所述步骤3)中,除了利用到了上下文的表示,对于双方表述不同,但是含义相同的情况,对于原告所述步骤3)中,除了利用到了上下文的表示,对于双方表述不同,但是含义相同的情况,对于原告诉称和被告辩称,引入了主题向量表示,对于原告诉称的主题分布为Tp=(tp,1,tp,2,…,tp,m);tp,q注意力权重通过以下的计算公式得到:
其中hp,m是输入文本的最后的隐状态,用于提高相关主题的权重,弱化不相干主题的权重,被告辩称也可通过相同的公式得到,本装置将原告诉称和被告辩称的attention的进行联合计算,得到统一的主题注意力权重,计算公式如下所示:
αjq=mp,jq·Wq·md,jq
本方法联合上下文注意力机制和主题注意力机制联合计算得到cj,计算公式如下所示:
其中tp,j是Tp主题中的一个主题的向量,td,j是Td主题中的一个主题的向量。
得到原告诉称和被告辩称的融合向量以后,并以此向量作为解码器的输入,并生成争议焦点,生成的所有词的概率如下公式所示:
其中,yj-1是指上一个预测的词,是正则项,dj的计算公式如下所示:
dj=GRU(yj-1,dj-1,cj)
其中的计算公式如下所示:
其中,wT,和bV是指待调节的参数,σ是指激活函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910980161.4/1.html,转载请声明来源钻瓜专利网。