[发明专利]一种对话回复生成方法和一种对话回复生成方法模型在审
申请号: | 202210975994.3 | 申请日: | 2022-08-15 |
公开(公告)号: | CN115357698A | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 曾碧卿;曾威;冯灵聪;蔡坤钊 | 申请(专利权)人: | 华南师范大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06N20/00 |
代理公司: | 广州骏思知识产权代理有限公司 44425 | 代理人: | 吴静芝 |
地址: | 528225 广东省佛山市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 对话 回复 生成 方法 模型 | ||
1.一种对话回复生成方法,其特征在于,包括步骤:
S12:根据历史选择知识向量计算选择感知向量,然后分别执行步骤S13和步骤S14;
S13:根据所述选择感知向量和所述历史选择知识向量计算知识流趋势向量;
S14:将所述选择感知向量和候选知识向量进行比较,获得比较信息;
S15:对上下文语句进行编码,获得上下文向量;其中,步骤S15在步骤S20之前的任一阶段执行;
S20:根据所述候选知识向量、所述知识流趋势向量、所述比较信息和所述上下文向量计算知识选择分布;
S30:根据所述知识选择分布计算每个候选知识向量的注意力得分,并将注意力得分最高的候选知识向量作为当前选择知识向量;
S40:根据所述上下文向量和所述当前选择知识向量计算历史解码状态向量,并根据所述历史解码状态向量和历史生成词计算当前时刻的解码状态向量;
S50:根据当前时刻的所述解码状态向量、所述历史生成词、所述上下文向量、所述当前选择知识向量分别计算当前时刻的词表生成概率和当前时刻的知识复制概率,并根据当前时刻的所述词表生成概率和当前时刻的所述知识复制概率计算当前时刻的目标生成概率。
2.根据权利要求1所述的对话回复生成方法,其特征在于,步骤S12具体为:
采用一层Transformer块的自注意力机制对所述历史选择知识向量进行建模,捕获知识流中的动态信息,获得所述选择感知向量,其计算公式为:
Fτ=Transformer[TE(rτ-N,s,rτ-N+1,s,...,rτ-1,s)] (4)
Fτ={fτ-N,fτ-N+1,...,fτ-1} (5)
式中,Fτ为第τ轮对话的所述选择感知向量;fτ-N,fτ-N+1,...,fτ-1分别为第(τ-N)轮至第(τ-1)轮对话的相互感知向量;TE()表示对每个所述历史选择知识向量添加对应轮次的信息嵌入的操作;rτ-N,s,rτ-N+1,s,...,rτ-1,s分别为第(τ-N)轮至第(τ-1)轮对话的所述历史选择知识向量;N为知识选择参数。
3.根据权利要求2所述的对话回复生成方法,其特征在于:
所述知识流趋势向量的计算公式为:
式中,Tτ为第τ轮对话的所述知识流趋势向量;fτ-n为第(τ-n)轮对话的所述相互感知向量,rτ-n,s为第(τ-n)轮对话的所述历史选择知识向量;λn为第(τ-n)轮对话的知识选择权重;其中,n∈[1,N],且λn≥0。
4.根据权利要求3所述的对话回复生成方法,其特征在于,步骤S14具体为:
通过比较函数将每个所述候选知识向量与当前轮次的所述选择感知向量进行比较,获得所述比较信息,其计算公式为:
其中,fn为第(τ-n)轮对话的所述相互感知向量,rl为第l个候选知识向量,oτ,l为第l个候选知识向量与第τ轮对话的选择知识向量的比较信息;Compare(,)表示比较函数,F()表示tanh激活函数,⊙表示哈玛达乘积。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南师范大学,未经华南师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210975994.3/1.html,转载请声明来源钻瓜专利网。