[发明专利]使用连续正则化训练联合多任务神经网络模型在审

专利信息
申请号: 201780068346.7 申请日: 2017-11-03
公开(公告)号: CN109923557A 公开(公告)日: 2019-06-21
发明(设计)人: 桥本和真;熊蔡明;R·佐赫尔 申请(专利权)人: 易享信息技术有限公司
主分类号: G06N3/04 分类号: G06N3/04;G06N3/08;G06N3/063;G10L15/16;G10L15/18;G10L25/30;G06F17/27
代理公司: 北京市磐华律师事务所 11336 代理人: 高伟;娄晓丹
地址: 美国加利*** 国省代码: 美国;US
权利要求书: 查看更多 说明书: 查看更多
摘要: 所公开的技术提供了所谓的“联合多任务神经网络模型”,以在单个端到端模型中使用不断增长的层深度来解决各种日益复杂的自然语言处理(NLP)任务。通过考虑语言层级,将词表示直接连接到所有模型层,明确地使用较低任务中的预测,并应用所谓的“连续正则化”技术来防止灾难性遗忘,来连续训练该模型。较低级模型层的三个示例是词性(POS)标注层、语块划分层和依赖性解析层。较高级模型层的两个示例是语义相关性层和文本蕴涵层。该模型实现了关于语块划分、依赖性解析、语义相关性和文本蕴涵的最先进的结果。
搜索关键词: 神经网络模型 语义 模型层 正则化 语块 解析 文本 自然语言处理 高级模型 模型实现 标注层 端到端 划分层 灾难性 层级 词性 遗忘 联合 预测 语言 应用
【主权项】:
1.一种在硬件上运行的堆叠的LSTM序列处理器的训练方法,所述堆叠的LSTM序列处理器根据分析层级堆叠成至少三层,所述训练方法包括:使用针对每层的训练示例通过后向传播训练第一层、第二层和第三层,同时在训练期间具有至下层的正则化的向下传递,包括:使用第一层训练示例训练所述第一层;使用第二层训练示例训练所述第二层,同时具有至所述第一层的正则化的向下传递训练;以及使用第三层训练示例训练所述第三层,同时具有至所述第一层和所述第二层的正则化的向下传递训练;以及通过约束训练目标函数使正则化的向下传递训练正则化,所述训练目标函数具有适应度函数,所述适应度函数具有至少两个正则化项;以及所述两个正则化项通过惩罚应用于所述下层的系数矩阵的权重大小的增长来正则化,并且对应用于所述下层的系数矩阵中权重的所有变化进行连续地正则化。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于易享信息技术有限公司,未经易享信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201780068346.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top