[发明专利]文本分类方法、装置和电子设备在审
申请号: | 202110164085.7 | 申请日: | 2021-02-05 |
公开(公告)号: | CN112765357A | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 马欣;吴臻志;何伟 | 申请(专利权)人: | 北京灵汐科技有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F16/36 |
代理公司: | 北京银龙知识产权代理有限公司 11243 | 代理人: | 许静;黄灿 |
地址: | 100190 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本 分类 方法 装置 电子设备 | ||
本申请公开了一种文本分类方法、装置和电子设备,属于计算机技术领域。其中,文本分类方法包括:提取待处理文本中的目标关键词;从预设知识图谱中确定与所述目标关键词匹配的目标词汇节点;根据所述预设知识图中的目标相关系数,生成第一特征向量,其中,所述预设知识图谱还包括关键词节点,所述目标相关系数包括所述目标词汇节点到所述关键词节点之间的相关系数;基于预设神经网络和所述第一特征向量,确定所述待处理文本的分类结果。本申请实施例提供的文本分类方法能够适用于多种业务场景下的文本分类,具有良好的适用性。
技术领域
本申请属于计算机技术领域,具体涉及一种文本分类方法、装置和电子设备。
背景技术
文本分类是一种典型的自然语言处理任务,可通过预先训练的文本分类模型,预测待分类文本属于特定分类体系下各个特定分类的概率,并将该文本划分至概率较大的特定分类。
在相关技术中,往往采用双向长短期记忆(Bi-directional Long Short-TermMemory,Bi-LSTM)、双向编码器(Bidirectional Encoder Representation fromTransformers,BERT)等算法模型对特定文本进行类别,这些方法基于深度学习技术路线,需要预先采用大量与对应的文本分类结果关联的文本数据集来训练神经网络,然后才能采用该神经网络分析新文本的分类结果。
但是,在自然语言处理(Natural Language Processing,NLP)技术领域中,训练数据集与应用业务领域紧密相关,从而难以确定如计算机视觉(Computer Version,CV)中ImageNet(一个计算机视觉系统识别项目,是目前世界上存在的图像识别中最大的数据库)那样的通用训练数据集,从而,限制了上述Bi-LSTM和BERT等以深度学习为技术路线的算法在文本分类中的应用。
由此可知,相关技术中的文本分类方法存在适用范围受限的缺陷。
发明内容
本申请实施例的目的是提供一种文本分类方法、装置和电子设备,能够提升文本分类方法的适用范围。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种文本分类方法,该方法包括:
提取待处理文本中的目标关键词;
从预设知识图谱中确定与所述目标关键词匹配的目标词汇节点;
根据所述预设知识图中的目标相关系数,生成第一特征向量,其中,所述预设知识图谱还包括关键词节点,所述目标相关系数包括所述目标词汇节点到所述关键词节点之间的相关系数;
基于预设神经网络和所述第一特征向量,确定所述待处理文本的分类结果。
第二方面,本申请实施例提供了一种文本分类装置,该装置包括:
提取模块,用于提取待处理文本中的目标关键词;
匹配模块,用于从预设知识图谱中确定与所述目标关键词匹配的目标词汇节点;
生成模块,用于根据所述预设知识图中的目标相关系数,生成第一特征向量,其中,所述预设知识图谱还包括关键词节点,所述目标相关系数包括所述目标词汇节点到所述关键词节点之间的相关系数;
第一确定模块,用于基于预设神经网络和所述第一特征向量,确定所述待处理文本的分类结果。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京灵汐科技有限公司,未经北京灵汐科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110164085.7/2.html,转载请声明来源钻瓜专利网。