[发明专利]一种新型的基于BERTCONTEXT的多轮对话自然语言理解模型在审

专利信息
申请号: 202011392427.2 申请日: 2020-12-02
公开(公告)号: CN112667788A 公开(公告)日: 2021-04-16
发明(设计)人: 戴宪华;其他发明人请求不公开姓名 申请(专利权)人: 中山大学
主分类号: G06F16/332 分类号: G06F16/332;G06F16/33;G06N3/04;G06N3/08;G06F16/35
代理公司: 暂无信息 代理人: 暂无信息
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 新型 基于 bertcontext 轮对 自然语言 理解 模型
【权利要求书】:

1.一种新型的基于BERTCONTEXT的自然语言理解模型,包括如下步骤:

S1.将两个任务的数据通过loader加载器加载到模型中,模型总的输入为D=[D1,D2]。

S2.数据输入到BERT模型分类需要将原始数据转换为数据的id,数据的类别label和掩码mask,多个任务和单个任务一样,分别将数据转为对映的id,label,mask,模型的输入的total_id,total_label,total_mask是每一个任务id,label,mask的在size方向的连接,其中长度,选取最大的长度,剩余的长度不足的会补0.total_id=[id_a,id_b],total_label=[label_a,label_b],total_mask=[mask_a,mask_b];

S3.模型预训练阶段,在原有BERT模型单分类,根据数据的id改写为两个任务的分类,D[0-m]、D[m、m+n]分别是第一个任务、第二个任务的数据,经过同一个模型,共享得到的浅层网络的语义信息相同用Y表示,在进行分类的时候对每一个任务的语义信息单独拉出来进行分类任务的执行;

S4.将加载的历史文本信息context[Ui-1,Ri-1]通过BERT模型得到的语义信息c_o,会与当前对话Ui的语义信息s_o链接在一起来,拼接后的语义信息为Ch=[c1,1,…,c1,m+n]。

S5.其中用Ch[0-m]、Ch[m:]分别表示第一个任务、第二个任务的语义数据来分别进行两项任务的分类;在分类的模型中,为了平衡数据,我们将交叉熵损失函数改为focal loss损失函数来进行分类,数据的输入为Ch[0-m]、Ch[m:]参数变量为Wn1,Wn2,则经过BERT的decoder层的softmax函数,得到每一个分类任务中的分类标签的概率数值P;

S7.对每一个任务中取最大的概率pi,其下标对应的意图为通过模型训练得到的意图;

S8.将真实的意图和模型推理得到的意图进行统计,计算每一个多分类任务的准确度accuracy_i;

S9.按多个任务数据集的数量分配权重wi,每一个多分类任务的准确率乘权重wi,得到整个模型的分类准确率Accuracy。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011392427.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top