[发明专利]模型生成方法、文本分类方法、装置及计算机可读存储介质在审
申请号: | 201910075725.X | 申请日: | 2019-01-25 |
公开(公告)号: | CN109857868A | 公开(公告)日: | 2019-06-07 |
发明(设计)人: | 龙翔 | 申请(专利权)人: | 北京奇艺世纪科技有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100080 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 向量 分类模型 目标文本 待分类文本 拼音 计算机可读存储介质 模型生成 文本分类 分类 样本 计算机技术领域 文本分类模型 分类准确性 分类文本 分类效果 训练样本 样本文本 错别字 覆盖 | ||
本发明提供了一种模型生成方法、文本分类方法、装置及计算机可读存储介质,属于计算机技术领域。该方法可以利用第一文本分类模型,根据样本文本包含的每个字的样本拼音向量及样本字向量,训练得到目标文本分类模型。这样,利用该生成的目标文本分类模型在对待分类文本进行分类时,能够基于该待分类文本中包含的字的拼音向量及字向量进行分类,由于通过拼音向量可以降低待分类文本中出现的错别字对分类准确性造成的偏差,同时,以字为单位进行分类,可以提高待分类文本包含的字被训练该目标文本分类模型时所使用的训练样本所覆盖的机率,进而进一步提高分类效果,提高目标文本分类模型的泛化能力。
技术领域
本发明属于计算机技术领域,特别是涉及一种模型生成方法、文本分类方法、装置及计算机可读存储介质。
背景技术
目前,在自然语言处理方面,文本分类得到了广泛的应用,例如,在对用户输入进行意图识别时,往往是对该用户输入进行文本分类来实现识别意图。
现有技术中,在进行文本分类时,往往是将目标文本划分为多个词语,然后利用文本分类模型,基于每个词语的词向量进行分类。但是,目标文本中往往是通过对用户输入的语音进行转化得到的,或者是获取用户手动输入文字得到的,这样,受到语音转换精度,或者用户手动输入的准确度的影响,目标文本中可能会存在错别字,进而导致基于该目标文本进行分类的准确性,同时,文本分类模型的训练数据有限,可能无法完全覆盖目标分类中的每个词语,这样,利用文本分类模型,以词向量为依据进行分类,也会影响分类的准确性。
发明内容
本发明提供一种模型生成方法、文本分类方法、装置及计算机可读存储介质,以便解决文本分类的准确率较低的问题。
依据本发明的第一方面,提供了一种模型生成方法,应该方法包括:
将样本文本输入第一文本分类模型;
根据所述样本文本包含的每个字的样本拼音向量及样本字向量,并利用所述第一文本分类模型,获取所述样本文本的预测类别值;
基于所述样本文本的预测类别值以及所述样本文本的真实类别值,获取所述第一文本分类模型的损失值;
若所述损失值在预设范围内,将所述第一文本分类模型作为目标文本分类模型。
可选的,所述方法还包括:
若所述损失值不在所述预设范围内,基于所述损失值表示的损失程度调整所述第一文本分类模型的参数,得到第二文本分类模型;
基于所述样本文本对所述第二文本分类模型继续训练,直至所述损失值在所述预设范围内,将所述第二文本分类模型作为目标文本分类模型。
可选的,所述将样本文本输入第一文本分类模型之前,所述方法还包括:
对所述第一文本分类模型中各层的参数进行初始化;其中,所述第一文本分类模型包括向量embedding层、长短期记忆LSTM层以及软最大值softmax层;
所述embedding层中的参数至少包括:每个样本文本中每个字的字向量以及所有拼音字符的向量。
可选的,所述根据所述样本文本包含的每个字的样本拼音向量及样本字向量,并利用所述第一文本分类模型,获取所述样本文本的预测类别,包括:
根据所述样本文本包含的每个字的样本拼音向量及样本字向量,确定每个字的样本最终向量;
基于每个字的样本最终向量,确定所述样本文本的文本向量;
基于所述样本文本的文本向量,确定所述样本文本的预测类别。
可选的,所述根据所述样本文本包含的每个字的样本拼音向量及样本字向量,确定每个字的样本最终向量,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京奇艺世纪科技有限公司,未经北京奇艺世纪科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910075725.X/2.html,转载请声明来源钻瓜专利网。