[发明专利]近邻语义的挖掘方法、装置、存储介质和终端设备有效
申请号: | 201810712820.1 | 申请日: | 2018-06-29 |
公开(公告)号: | CN108959551B | 公开(公告)日: | 2021-07-13 |
发明(设计)人: | 陈徐屹;冯仕堃;朱志凡;曹宇慧;朱丹翔 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F16/33 |
代理公司: | 北京市铸成律师事务所 11313 | 代理人: | 陈建焕;杨瑾瑾 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 近邻 语义 挖掘 方法 装置 存储 介质 终端设备 | ||
本发明提出一种近邻语义的挖掘方法、装置、存储介质和终端设备,其中,所述方法包括:获取待挖掘近邻语义的自然语句;根据变分自编码模型的编码器,对所述自然语句进行编码,获得所述自然语句的隐向量;其中,所述隐向量位于所述编码器产出分布的均值点处;对所述隐向量进行近邻语义搜索,获得与所述隐向量具有近邻语义的近邻隐向量;以及根据变分自编码模型的解码器,对近邻隐向量进行解码,获得与所述自然语句具有近邻语义的语句。采用本发明,可以挖掘出大量语义句法近似的语句。
技术领域
本发明涉及计算机技术领域,尤其涉及一种近邻语义的挖掘方法、装置、存储介质和终端设备。
背景技术
在NLP(Neuro-Linguistic Programming,神经语言程序学)领域中,自然语言的处理一般会对自然语言进行向量化表达,然后再进行后续的处理。对自然语言的向量化表达已经有成熟解决方案,但是如何在向量化表达中表达自然语言的语义仍未有一个有效的解决方案。一般地,自然语言处理的近邻义挖掘的技术方案包括:
1、利用word2vec(word to vector,用于产生词向量的相关模型)进行词向量加和。利用word2vec模型对语料进行无监督训练,得到自然语句中每个词的向量化表达。在对自然语句进行建模时,对每个词对应的向量加和,得到整句话的向量化表示。然后,对该向量的空间的点进行近邻搜索,从而获得语义相近的语句。
2、基于LSTM(Long Short-Term Memory,长短期记忆网络)语言模型,建模以获得语料中每一句话的概率。在模型训练完成之后,利用模型计算待预测语句集的语句在训练集中出现的概率,概率越高,则认为该语句与待预测语句的概率越相近。
但是,上述方案存有以下不足之处:
1、对于方案1来说,由于采取词向量加和的方式来表达,得到的表达不包含句子的结构、句子中的词顺序之间的信息。虽然两句话的词是相同的,但是语义不同,也会被word2vec模型映射到空间中的同一点。例如,“我喜欢你”和“你喜欢我”是两个不同语义的语句,但word2vec模型会将其转化成相同的向量表达。
2、对于方案2来说,LSTM模型没有对自然语句进行向量化表达,只能利用LSTM模型计算出其在训练语料中出现的概率,也就是说,计算自然语句与训练语料中的各训练语句之间的相似度,而非与任意一个句子之间的相似度。如此进行文本挖掘非常有限。
发明内容
本发明实施例提供一种近邻语义的挖掘方法、装置、存储介质和终端设备,以解决或缓解现有技术中的以上一个或多个技术问题。
第一方面,本发明实施例提供了一种近邻语义的挖掘方法,包括:
获取待挖掘近邻语义的自然语句;
根据变分自编码模型的编码器,对所述自然语句进行编码,获得所述自然语句的隐向量;其中,所述隐向量位于所述编码器产出分布的均值点处;
对所述隐向量进行近邻语义搜索,获得与所述隐向量具有近邻语义的近邻隐向量;以及
根据变分自编码模型的解码器,对近邻隐向量进行解码,获得与所述自然语句具有近邻语义的语句。
结合第一方面,在第一方面的第一种实施方式中,在对所述自然语句进行编码之前还包括:
对所述自然语句进行切词,获得组成所述自然语句的词语;
根据预设的字典,将组成所述自然语句的词语均转成相应的数值;以及
根据词向量模型,对组成所述自然语句的各词语对应的各整数进行向量转换,获得所述自然语句的向量表达。
结合第一方面,在第一方面的第二种实施方式中,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810712820.1/2.html,转载请声明来源钻瓜专利网。