[发明专利]对话模型的回复排序方法、装置及计算机可读存储介质在审
申请号: | 201711395876.0 | 申请日: | 2017-12-21 |
公开(公告)号: | CN110019722A | 公开(公告)日: | 2019-07-16 |
发明(设计)人: | 李一韩;童毅轩;姜珊珊;董滨 | 申请(专利权)人: | 株式会社理光 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/33;G06F17/27 |
代理公司: | 北京银龙知识产权代理有限公司 11243 | 代理人: | 黄灿;姜精斌 |
地址: | 日本*** | 国省代码: | 日本;JP |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对话模型 排序 对话内容 回复内容 回复 计算机可读存储介质 句子 概率 统计 | ||
本发明实施例提供了一种对话模型的回复排序方法、装置及计算机可读存储介质。本发明实施例提供的对话模型的回复排序方法,通过统计同一目标回复内容在目标对话内容以及相似对话内容下的生成概率,作为该目标回复内容的排序的评分,可以有效的提升目标回复内容中适合目标对话内容P的句子的排名,从而提升对话模型的回复质量。
技术领域
本发明涉及对话处理技术领域,具体涉及一种对话模型的回复排序方法、装置及计算机可读存储介质。
背景技术
对话生成任务是针对用户给出的对话内容(一句话或包括多个句子的一小段文本),自动输出符合对话内容的回复内容。该回复内容通常要求语法正确且与用户的对话内容逻辑一致。当前对话生成任务采用的技术包括基于检索式的方法和基于生成式的方法。
具体的,基于检索式的方法从数据库中通过一定的度量标准找出一个句子作为回复句子(本文中亦称为回复内容)。该方法给出的回复句子语法通常都是正确的,但存在着扩展性、适应性较差的问题。而基于生成式的方法则通过训练神经网络对话模型,基于神经网络对话模型自动生成符合要求的句子作为回复。该方法具有良好的扩展性和适应性,能够学习并理解用户给的对话内容并作出相应的回复内容。基于生成式的方法虽然具有上述良好的性能,但当前应用中仍然存在着一些问题。
假设已有训练好的神经网络对话模型M,当用户给出句子P时,神经网络对话模型M通常会生成多个排序不同的句子,记为R。R中排序越靠前(排名越高)的句子越有可能被选为P的回复句子,也就是说,R中的句子,是按照各个句子被选为P的回复句子的概率的高低顺序进行排序的。基于生成式方法的一个目标是提升高排名回复句子的质量。然而,神经网络对话模型在训练时,由于训练集中词语的分布不均,导致对不同词语组成的句子理解程度不一,这就可能会形成排名较高的句子并不适合作为用户句子P的一个回复句子,而适合用户句子P的回复句子被排在较低的位置。
因此,亟需一种面向基于神经网络的对话模型的回复排序方法,提升回复中适合用户句子P的回复句子的排名,从而提升对话模型的回复质量。
发明内容
本发明实施例要解决的技术问题是提供一种对话模型的回复排序方法、装置及计算机可读存储介质,可以有效提升回复中适合用户对话内容的回复内容的排名,从而提升对话模型的回复质量。
为解决上述技术问题,本发明实施例提供的对话模型的回复排序方法,包括:
获取目标对话内容在所述样本数据集中的至少一个语义相似的相似对话内容;
以目标对话内容为输入,获取所述对话模型生成的至少一个目标回复内容的概率值;以及,以每个相似对话内容为输入,获取所述对话模型生成所述目标回复内容的概率值;
根据所生成的每个目标回复内容的概率值,统计该目标回复内容的评分,其中,该目标回复内容的评分,与该目标回复内容的概率值正相关;
根据所述评分的高低顺序,对各个目标回复内容进行排序。
其中,所述获取目标对话内容在所述样本数据集中的至少一个语义相似的相似对话内容的步骤,包括:
根据预先选择的语料集,训练词向量;
基于词向量,计算目标对话内容以及样本数据集中的样本对话内容的语义向量;
根据语义向量,计算目标对话内容与各个样本对话内容的语义相似度;
按照所述语义相似度从高到低的顺序,选择出至少一个语义相似的相似对话内容。
其中,在所述获取目标对话内容在所述样本数据集中的至少一个语义相似的相似对话内容的步骤之前,所述方法还包括:
基于序列到序列Seq2Seq模型,利用样本数据集,训练获得所述对话模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于株式会社理光,未经株式会社理光许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711395876.0/2.html,转载请声明来源钻瓜专利网。