[发明专利]一种单选择门与类间度量的细粒度语义相似识别的方法有效
申请号: | 201911032484.7 | 申请日: | 2019-10-28 |
公开(公告)号: | CN110826338B | 公开(公告)日: | 2022-06-17 |
发明(设计)人: | 蔡晓东;蒋鹏 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06F40/247;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 济南智圆行方专利代理事务所(普通合伙企业) 37231 | 代理人: | 刘景琛 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 选择 度量 细粒度 语义 相似 识别 方法 | ||
1.一种单选择门与类间度量的细粒度语义相似识别的方法,其特征在于,包括:
S1、将获取的语料生成中文语句对;
S2、利用词向量模型将S1生成的中文语句对进行向量化,得到词向量;
S3、将S2得到的词向量输入LSTM网络中得到语句对的上下文向量;
S4、利用选择门选取语句对上下文向量中的核心信息;
S5、将S4获取的核心信息输入匹配层完成信息匹配,通过信息匹配获取匹配向量;
S6、将匹配向量输入另外一个LSTM网络中得到语句对匹配信息的向量,将匹配向量经融合层变为一个固定长度的向量,通过Softmax函数得到语句对的相似度得分;
S7、计算经LSTM网络输出所述语句对之间的类间损失,将原损失和类间损失进行加权融合,使得学习的特征类间间距更小;
其中,所述S4中,利用选择门选取语句对上下文向量中的核心信息的具体步骤为:
通过LSTM网络处理,得到P语句上下文的隐向量表达式矩阵:
和Q语句的上下文向量表达式矩阵:
其中,
和为前向LSTM网络的隐向量,和为反向LSTM网络的隐向量;
dp、dq分别为语句P和Q的隐向量维度;
采用在文本摘要领域广泛应用的选择门提取语句对的核心特征,首先利用语句P和Q的上下文隐向量构造其句向量,取语句P和Q的隐藏层hn为句向量s,其计算表达式如下:
s=hn:
将句向量和hi作为输入去计算向量sGatei,首次挑选出句子中的关键信息,其计算表达式如下:
sGatei=σ(Wshi+Uss+b);
其中,Ws和Us是权重矩阵,b是偏置向量,σ是sigmoid激活函数,是元素之间的点乘;
其中,h′i为第i个语句的核心特征向量,i=1,2,…,L,L为文本中的语句数量;
其中,所述S7中,将匹配向量输入另外一个LSTM中得到语句对匹配信息的向量进行类间损失计算具体为,将原损失和类间损失进行加权融合使得学习的特征类间间距更小;
类间损失的计算方法为:
其中v1和v2分别表示P和Q语句。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2中,利用词向量模型将中文语句对进行向量化的具体为:构建词向量模型,所述词向量模型使用300维的GloVe初始化词向量,权重矩阵使用服从U(-0.01,0.01)的均匀分布随机初始化,偏移矩阵初始化为0;
将中文语句对经jieba分词后输入GloVe模型中,通过深度学习的方法不断改变网络的权重和偏置,得到每个词对应的向量;
语句P表示为P=[p1,p2,...,pi,...,pn],
语句Q表示为Q=[q1,q2,...,qi,...,qm],
其中,n表示句子P的词语长度,m表示句子Q的词语长度;
利用分布式词向量,将语句中的每个词映射为一个向量,
得到词表C∈R|V|×D,
其中,|V|表示词表的大小,D为词向量的维度;
将单词pi和qi分别映射为词向量和
得到语句P的词向量矩阵
同理可得语句Q词向量矩阵
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911032484.7/1.html,转载请声明来源钻瓜专利网。