[发明专利]一种文本分类方法、装置、计算机设备及可读存储介质有效
申请号: | 202110635464.X | 申请日: | 2021-06-08 |
公开(公告)号: | CN113254645B | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 顾凌云;陈波;江峰;陈国豪 | 申请(专利权)人: | 南京冰鉴信息科技有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06K9/62 |
代理公司: | 成都顶峰专利事务所(普通合伙) 51224 | 代理人: | 钱学宇 |
地址: | 210000 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 文本 分类 方法 装置 计算机 设备 可读 存储 介质 | ||
本申请公开了一种文本分类方法、装置、计算机设备及可读存储介质,包括:获取包括对应的文本类别标签的多个训练文本数据,将一个训练文本数据输入初始文本分类模型训练得到当前文本分类模型,通过为当前文本分类模型包括的每层当前模型基元配置第一操作类型和第二操作类型构建当前搜索网络空间,输入另一训练文本数据至当前搜索网络空间,训练得到中间文本分类模型,将中间文本分类模型作为当前文本分类模型,继续进行所有训练文本数据的训练,得到能够对文本数据进行分类的目标文本分类模型,通过上述方案,相较于相关技术中针对不同的文本分类任务需要训练多个模型,本申请提供的方案仅需一个模型即可完成多个文本分类任务。
技术领域
本申请涉及文本分类技术领域,具体而言,涉及一种文本分类方法、装置、计算机设备和可读存储介质。
背景技术
随着现实生活中出现越来越多的数据,我们希望人工智能神经网络模型能实现像人脑一样进行持续不断地学习,然而,现存的神经网络无法克服灾难性遗忘问题,即学习了新的知识之后,几乎彻底遗忘掉之前学习到的知识。在文本分类识别领域,由于传统的神经网络训练得到的模型存在前述灾难性遗忘问题,因此一般对于一个文本分类任务需要对应训练一种模型。而随着文本分类任务的增加,需要训练的模型也随之增加,这不仅会占用大量计算机设备的内存,同时也会浪费大量的时间进行模型的训练。
发明内容
本申请提供一种文本分类方法、装置、计算机设备和可读存储介质,能够仅用一个模型实现多个文本分类任务,节省了存储空间,节约了训练多个模型的时间。
第一方面,本申请实施例提供一种文本分类方法,应用于计算机设备,方法包括:
获取多个训练文本数据,多个训练文本数据包括对应的文本类别标签;
将训练文本数据输入初始文本分类模型,训练得到当前文本分类模型,当前文本分类模型包括多层当前模型基元;
为每层当前模型基元配置第一操作类型和第二操作类型,并基于当前文本分类模型、第一操作类型和第二操作类型构建当前搜索网络空间,第一操作类型用于表征对当前模型基元进行的保留操作和第二操作类型用于表征对当前模型基元进行的修改操作;
从剩余的训练文本数据中选择任一训练文本数据输入当前搜索网络空间,训练得到中间文本分类模型;
将中间文本分类模型作为当前文本分类模型,返回为每层当前模型基元配置第一操作类型和第二操作类型,并基于当前文本分类模型、第一操作类型和第二操作类型构建当前搜索网络空间的步骤,直至完成所有训练文本数据的输入,训练得到对文本数据进行分类的目标文本分类模型。
在一种可能的实施方式中,第一操作类型为保持操作,第二操作类型为新建操作;
为每层当前模型基元配置第一操作类型和第二操作类型,并基于当前文本分类模型、第一操作类型和第二操作类型构建当前搜索网络空间,包括:
为每层当前模型基元配置保持操作和新建操作;
基于当前文本分类模型,构建得到包括多层当前搜索网络节点的当前搜索网络空间,每层当前搜索网络节点包括对应的当前模型基元配置保持操作和新建操作。
在一种可能的实施方式中,从剩余的训练文本数据中选择任一训练文本数据输入当前搜索网络空间,训练得到中间文本分类模型,包括:
从剩余的训练文本数据中选择任一训练文本数据输入当前搜索网络空间;
根据训练文本数据确定每层当前搜索网络节点对应的特征值;
根据特征值确定每层当前搜索网络节点对应的操作类型为保持操作或新建操作;
根据确定的每层当前搜索网络节点对应的操作类型,对每层当前搜索网络节点对应的当前模型基元执行对应操作;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京冰鉴信息科技有限公司,未经南京冰鉴信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110635464.X/2.html,转载请声明来源钻瓜专利网。