[发明专利]一种基于神经网络结构模型的文本分类方法及分类系统在审
申请号: | 201910125342.9 | 申请日: | 2019-02-20 |
公开(公告)号: | CN109902175A | 公开(公告)日: | 2019-06-18 |
发明(设计)人: | 聂桂芝;杨攀攀;曾青霞 | 申请(专利权)人: | 上海方立数码科技有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F17/27;G06N3/04 |
代理公司: | 上海麦其知识产权代理事务所(普通合伙) 31257 | 代理人: | 董红曼 |
地址: | 200333 上海*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本数据 神经网络结构 文本分类 分类 状态向量 词向量 准确率 文本分类系统 文本特征向量 自然语言处理 上下文信息 输入编码器 分类结果 分类系统 机制构建 网络模型 意图识别 应用场景 编码器 分类器 构建 语句 搜集 输出 | ||
1.一种基于神经网络结构模型的文本分类方法,其特征在于,包括:
步骤一:搜集待分类的文本数据;
步骤二:处理文本数据,将文本数据中的语句以词向量表示;
步骤三:构建神经网络结构模型;所述神经网络结构模型的层数为三层,第一层为词注意层,第二层为句注意层,第三层为maxpooling层;
步骤四:基于所述神经网络结构模型,以RNN和CNN网络模型结构为基础,加入注意机制构建编码器;
步骤五:将以词向量表示的文本数据输入编码器,输出包含上下文信息的状态向量;
步骤六:根据状态向量使用分类器对文本数据进行分类,获得分类结果。
2.根据权利要求1所述的基于神经网络结构模型的文本分类方法,其特征在于,文本数据输入所述编码器时,在词注意层中:
通过将输入到一个多层神经网络中得到的结果作为隐藏表示;
构建基于词的注意力模型,初始化其权重矩阵,根据隐含表示计算每个词的重要性;
根据每个词的重要性,通过多层神经网络经加权平均获得由词组成的语句的重要性。
3.根据权利要求2所述的基于神经网络结构模型的文本分类方法,其特征在于,所述多层神经网络是双向GRU网络。
4.根据权利要求3所述的基于神经网络结构模型的文本分类方法,其特征在于,词的隐藏表示包括正向输入的隐藏状态和反向输入的隐藏状态,以如下公式计算:
xit=Wewit,t∈[1,T]
其中,表示第i句话第t个时刻的正向输入的隐藏状态的输出;表示第i句话第t个时刻的反向输入的隐藏状态的输出;wit表示第i句话第t个时刻的输入;We表示初始化的权重矩阵;xit表示第i句话第t个时刻的经过处理后的神经网络的输入。
5.根据权利要求3所述的基于神经网络结构模型的文本分类方法,其特征在于,由词组成的语句的重要性以如下公式计算:
uit=tanh(Wwhit+bw)
其中,u表示对应的权重矩阵;si表示第i句话的输入;h(h1,h2,……hL)表示隐藏状态的输出;ait表示对应的注意力模型的权值;bw表示词级的偏置矩阵;Ww表示词级的权重矩阵。
6.根据权利要求2-5之任一项所述的基于神经网络结构模型的文本分类方法,其特征在于,在句注意层中:
通过将输入到多层神经网络中得到的结果作为隐含表示;
构建基于句的注意力模型,初始化其权重矩阵,根据隐含表示计算每个句的重要性;
根据句的重要性,通过多层神经网络经加权平均获得文本数据的状态向量。
7.根据权利要求6所述的基于神经网络结构模型的文本分类方法,其特征在于,所述状态向量经过如下公式计算得到:
ui=tanh(Wshi+bs)
其中,表示第i句话第t个时刻的正向输入的隐藏状态的输出;表示第i句话第t个时刻的反向输入的隐藏状态的输出;si表示第i句话的输入;u表示对应的权重矩阵;ai表示对应的注意力模型的权值;bs表示句子级的偏置矩阵;v表示最后输出的状态向量,包含了上下文的信息。
8.根据权利要求2所述的基于神经网络结构模型的文本分类方法,其特征在于,在maxpooling层中,去除状态向量的部分特征,减少模型参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海方立数码科技有限公司,未经上海方立数码科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910125342.9/1.html,转载请声明来源钻瓜专利网。