[发明专利]基于知识图谱的智能对话推荐方法及装置在审
申请号: | 202110426610.8 | 申请日: | 2021-04-20 |
公开(公告)号: | CN113127646A | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 黄民烈;马文畅 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F40/35;G06N3/04;G06N3/08 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 聂俊伟 |
地址: | 100084 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 知识 图谱 智能 对话 推荐 方法 装置 | ||
1.一种基于知识图谱的智能对话推荐方法,其特征在于,包括:
获取用户端的语音信息;
将所述语音信息输入到训练好的语言模型中,得到所述语音信息对应的自然语言回复,所述训练好的语言模型是由样本对话历史内容和样本意图推理树,对语言模型进行训练得到的;
其中,所述样本意图推理树是根据预设对话意图、样本对话历史表示和样本用户画像,基于知识图谱进行推理得到的;所述样本对话历史表示是通过对所述样本对话历史内容进行编码得到的;所述样本用户画像是通过对所述样本对话历史内容中提及到的知识图谱的节点进行编码,基于自注意力机制得到的。
2.根据权利要求1所述的基于知识图谱的智能对话推荐方法,其特征在于,所述训练好的语言模型通过以下步骤得到:
根据样本问法和所述样本问法对应的样本回复,构建每轮次对话的样本历史对话内容,所述样本问法为用户端样本对话内容,所述样本回复为系统端样本对话内容;
基于预训练的BERT模型,对所述样本历史对话内容进行编码,得到样本对话历史表示;
基于预训练的R-GCN模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像;
通过所述样本对话历史表示和所述样本用户画像,基于知识图谱,生成预设对话意图对应的样本意图推理树;
根据所述样本意图推理树和所述样本历史对话内容,构建训练样本集,并将所述训练样本集输入到预训练的GPT-2模型进行微调,以根据训练好的GPT-2模型,得到训练好的语言模型,所述训练好的语言模型包括所述预训练的BERT模型、所述预训练的R-GCN模型和所述训练好的GPT-2模型。
3.根据权利要求2所述的基于知识图谱的智能对话推荐方法,其特征在于,所述基于预训练的BERT模型,对所述样本历史对话内容进行编码,得到样本对话历史表示,包括:
基于预训练的BERT模型,对每轮次对话的样本历史对话内容进行编码,得到每轮次对话的对话表示:
BERT([yt-1;xt]);
其中,xt表示第t轮次对话中的用户端样本对话内容,yt-1表示第t-1轮次对话中的系统端样本对话内容;所述预训练的BERT模型的输出层连接一个LSTM层;
通过所述LSTM层,根据对话的时序关系,对所有轮次对话的对话表示按照时序关系进行编码,得到样本对话历史表示ut;
ut=LSTM(ut-1,BERT([yt-1;xt]))。
4.根据权利要求2所述的基于知识图谱的智能对话推荐方法,其特征在于,所述基于预训练的R-GCN模型,对知识图谱中每个节点进行编码,并根据所述样本对话历史内容中提及到的知识图谱的节点,将编码后的节点构建得到的目标节点矩阵,通过自注意力机制生成对应的样本用户画像,包括:
基于预训练的R-GCN模型,对知识图谱中每个节点进行编码,得到每个节点在所述预训练的R-GCN模型中每一层的表示:
其中,表示与节点e有关系r的节点集合;与为训练参数;R-GCN模型第L层的节点表示为he∈Rd;e′表示与节点e有关系r的节点;
根据所述样本对话历史内容中提及到的知识图谱的节点,将对应的编码后的节点构成目标节点矩阵Mt:
基于自注意力机制,根据所述目标节点矩阵,生成对应的样本用户画像pt:
pt=αt*Mt;
αt=softmax(wp·tanh(WpMt));
其中,αt表示第t轮次对话的权重向量,wp与Wp表示训练参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110426610.8/1.html,转载请声明来源钻瓜专利网。