[发明专利]一种面向多任务语言模型的元-知识微调方法及平台有效
申请号: | 202011202867.7 | 申请日: | 2020-11-02 |
公开(公告)号: | CN112100383B | 公开(公告)日: | 2021-02-19 |
发明(设计)人: | 王宏升;王恩平;单海军 | 申请(专利权)人: | 之江实验室 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F40/30;G06N5/04 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 邱启旺 |
地址: | 310023 浙江省杭州市余*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种面向多任务语言模型的元‑知识微调方法及平台,该方法基于跨域的典型性分数学习,获得同类任务不同数据集上高度可转移的共有知识,即元‑知识,将不同数据集对应的不同域上的同类任务的学习过程进行相互关联和相互强化,提升语言模型应用中同类下游任务在不同域数据集上的微调效果,提升了同类任务通用语言模型的参数初始化能力和泛化能力。本发明是在下游任务跨域数据集上进行微调,微调所得的压缩模型的效果不受限于该类任务的特定数据集,在预训练语言模型基础上,通过元‑知识微调网络对下游任务进行微调,由此得到与数据集无关的同类下游任务语言模型。 | ||
搜索关键词: | 一种 面向 任务 语言 模型 知识 微调 方法 平台 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202011202867.7/,转载请声明来源钻瓜专利网。