[发明专利]基于注意力模型的语言输入关联性检测方法有效

专利信息
申请号: 201710501293.5 申请日: 2017-06-27
公开(公告)号: CN107358948B 公开(公告)日: 2020-06-09
发明(设计)人: 俞凯;曹迪 申请(专利权)人: 上海交通大学;苏州思必驰信息科技有限公司
主分类号: G10L15/06 分类号: G10L15/06;G10L15/16;G10L15/18;G06F3/023
代理公司: 上海交达专利事务所 31201 代理人: 王毓理;王锡麟
地址: 200240 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要: 一种基于注意力模型的语言输入关联性检测方法,通过采集训练语言模型所需的训练语料并进行预处理,并对语料中的每个词序列数据进行标注;然后使用标注后的训练序列对语言模型中的循环神经网络进行训练,再采用训练语料中所有数据集合对更新后的语言模型进行训练,当所得到的预测词的概率分布在验证集上是收敛时语言模型训练完成;最后使用训练后的语言模型对输入句子进行评分,从而得到词之间的关系。本发明采用基于注意力(attention)的方式去自动提取预测词与它们的相关关系。同时,在训练词向量时尝试引入语法和语义的信息,让词向量能够隐含更丰富的信息。通过这些技术期望可以提升语言模型的性能。
搜索关键词: 基于 注意力 模型 语言 输入 关联性 检测 方法
【主权项】:
一种基于注意力模型的语言输入关联性检测方法,其特征在于,包括:步骤S1:采集训练语言模型所需的训练语料并进行预处理;步骤S2:对语料中的每个词序列数据进行标注;步骤S3:使用标注后的训练序列对语言模型中的循环神经网络进行训练,即以梯度回传的方式或批量随机梯度下降方式对语言模型中的循环神经网络的参数进行更新;步骤S4:采用训练语料中所有数据集合对更新后的语言模型进行训练,当所得到的预测词的概率分布在验证集上是收敛时语言模型训练完成;步骤S5:使用训练后的语言模型对输入句子进行评分,从而得到词之间的关系。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学;苏州思必驰信息科技有限公司,未经上海交通大学;苏州思必驰信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710501293.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top