[发明专利]一种增强BART预训练任务的句子排序方法及装置在审
申请号: | 202310120728.7 | 申请日: | 2023-02-16 |
公开(公告)号: | CN115879421A | 公开(公告)日: | 2023-03-31 |
发明(设计)人: | 谢冰;袭向明;赵鑫安;尹越;宋伟;朱世强 | 申请(专利权)人: | 之江实验室 |
主分类号: | G06F40/166 | 分类号: | G06F40/166;G06F40/284;G06F40/117;G06N3/0499;G06N3/08 |
代理公司: | 北京志霖恒远知识产权代理有限公司 11435 | 代理人: | 戴莉 |
地址: | 311121 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种增强BART预训练任务的句子排序方法及装置,包括如下步骤:步骤1、从文本资源中提取有序的句子作为原始训练数据;步骤2、对原始训练数据进行预处理;步骤3、用预处理后的训练数据训练BART模型;步骤4、将待排序的句子输入到训练完成的模型中进行预测排序。设计词性标注预训练任务、句子掩盖预训练任务、句子删除预训练任务、句子填充预训练任务和句子旋转预训练任务进一步增强BART模型对句子语义和句间关系的特征提取能力。设计的预训练任务是一种多任务学习的训练方法,也是一种位置可控的句子排序方法,将排序控制信息通过句子标签序列的形式加到输入字符串中,模型会根据输入的排序控制信息进行句子排序。 | ||
搜索关键词: | 一种 增强 bart 训练 任务 句子 排序 方法 装置 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202310120728.7/,转载请声明来源钻瓜专利网。