[发明专利]一种基于多任务双向长短时记忆网络的隐式句间关系分析方法在审

专利信息
申请号: 201811098264.X 申请日: 2018-09-20
公开(公告)号: CN109460466A 公开(公告)日: 2019-03-12
发明(设计)人: 田文洪;黄厚文;黎在万;高印全;张朝阳 申请(专利权)人: 电子科技大学
主分类号: G06F16/35 分类号: G06F16/35;G06F17/27;G06N3/04
代理公司: 暂无信息 代理人: 暂无信息
地址: 611731 四川省成*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供一种基于多任务双向长短时记忆网络的隐式句间关系分析方法,包括:获取中文篇章级语义关系语料库,包括隐式句间关系语句和显式句间关系语句;采用多任务学习的方法,以隐式句间关系识别任务为主,显式句间关系识别任务为辅,获得模型输入序列;将主任务和辅任务同时输入到至Bi‑LSTM递归神经网络,通过学习获得隐式句间关系识别模型;对所述隐式句间关系识别模型采用融合词嵌入的方法并引入先验知识,充分利用文本特征,获得更好的识别结果。本发明充分利用了隐式句间关系语句和显式句间关系语句在语义等方面的联系,解决了由于隐式句间关系语句没有较好的特征导致隐式句间关系识别效果不好的问题。
搜索关键词: 隐式 关系识别 语句 显式 关系分析 记忆网络 递归神经网络 语义 模型输入 任务学习 文本特征 先验知识 语义关系 嵌入的 语料库 融合 引入 中文 学习
【主权项】:
1.一种基于多任务双向长短时记忆网络(Bidirectional Long Short‑Term Memory,Bi‑LSTM)的隐式句间关系分析方法,上述隐式句间关系分析模块包括:双向长短时记忆神经网络(Bi‑LSTM)是循环神经网络(Recurrent Neutral Network,RNN)的一个拓展,LSTM引入记忆块的概念,通过使用门(gate)控制信息的输入、遗忘和输出,从而有效的减轻RNN出现的梯度消失问题;融合词嵌入用于构建词向量,在模型的输入词向量中不仅加入word2vec的向量表示,同时添加词汇在句子中所对应的词性(Part of Speech,POS)作为一种融合的特征;多任务学习是多个任务同时进行学习,旨在利用任务之间的关联性,通过共同训练的方式提升模型的性能,同时,多任务学习可以间接的扩大训练语料,对语料较少的任务提供了一种可行的解决方案。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201811098264.X/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top