[发明专利]基于对抗性和任务提示性的小样本文本分类方法在审

专利信息
申请号: 202210386010.8 申请日: 2022-04-13
公开(公告)号: CN115292484A 公开(公告)日: 2022-11-04
发明(设计)人: 高鹰;张昭光;翁金塔;郭晓语;徐晓峰;周灿基;林远新 申请(专利权)人: 广州大学
主分类号: G06F16/35 分类号: G06F16/35;G06K9/62
代理公司: 广州高炬知识产权代理有限公司 44376 代理人: 孙明科
地址: 510006 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 对抗性 任务 提示 样本 文本 分类 方法
【权利要求书】:

1.基于对抗性和任务提示性的小样本文本分类方法,其特征在于:包括以下步骤:

S1、构建模型修改模块、模型训练模块和效果对比模块;

S2、针对小样本文本分类问题,选用AGNews数据集,该数据集在2000多种不同的新闻来源搜集数据,其中一共包含120000条训练样本,测试样本为7600条,分类名称为World、Sports、Business、Sci/Tech共四种类别,由于AGNews数据集的标准以及发布机构的权威,大量模型在文本分类任务上的效果展示都在AGNews数据集上进行训练和评价指标的对比;

S3、设置实验组和对照组进行对比,其中方法使用控制不同量数据集:设置训练数据集D为10、50、100、1000四组对照实验,按1:4对训练集进行分割;

S4、使用7600条的测试数据集作为测试集,最终在测试集进行测试获得评价指标,使用准确率作为评价指标,使用AGNews分类任务构建的六种PVPs人工模板;

S5、使用AT-PET模型,采用与经典的PET模型论文在AGNews数据集中相同的实验设置:使用Roberta-large模型作为预训练语言模型,分别设置数据量D为10、50、100、1000使用任务提示方法微调上游预训练语言模型,在微调过程中添加FGM对抗训练方法;

S6、未标注的Unlabeled软标签数据集使用10000条去掉标签的训练集,上游t个预训练语言模型标注出t份软标签数据集的logits值,标注出的t份logits值软标签数据集使用权值进行融合。

2.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:直接微调(Fine-Tuning)预训练语言模型,直接微调预训练语言模型是使用Roberta-large模型作为预训练语言模型,分别设置数据量D为10、50、100、1000直接使用微调方法。

3.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:直接使用PET模型。

4.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:所述采用AGNews数据集中相同的实验设置。

5.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:所述使用Roberta-large模型作为预训练语言模型,分别设置数据量D为10、50、100、1000使用任务提示方法微调上游预训练语言模型。未标注的软标签数据集同实验组。

6.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:S3中,使用原训练集的1/5作为验证集,使用原训练集的4/5作为训练数据。

7.根据权利要求1所述的基于对抗性和任务提示性的小样本文本分类方法,其特征在于:S6中,其中权值为做微调之前对不同模板的模型直接进行测试的准确率值,之后使用融合后的软标签数据集微调分类器C。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州大学,未经广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210386010.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top