[发明专利]一种法律场景智能分类系统和方法有效
申请号: | 202110061753.3 | 申请日: | 2021-01-18 |
公开(公告)号: | CN112765315B | 公开(公告)日: | 2022-09-30 |
发明(设计)人: | 冯建周;崔金满;魏启凯;王子易 | 申请(专利权)人: | 燕山大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/332;G06F16/35;G06F40/216;G06Q50/18;G06F40/289 |
代理公司: | 成都方圆聿联专利代理事务所(普通合伙) 51241 | 代理人: | 苟铭 |
地址: | 066004 河北*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 法律 场景 智能 分类 系统 方法 | ||
1.一种法律场景智能分类系统的分类方法,其特征在于:所述分类方法是在法律场景智能分类系统的基础上运行的;
法律场景智能分类系统,包括:分类模块、自学习模块和自适应模块;
分类模块包括基于混合注意力的原型网络模块和词向量相似度模块,用于用户咨询问题分类;其中,基于混合注意力的原型网络模块用于计算用户咨询问题与各个类原型之间的距离,从而判断其所属的类别;词向量相似度模块是通过计算用户咨询问题的词向量与各类标签词向量之间的相似度来判断其所属类别,从而辅助混合注意力原型网络,提升分类效果;
自学习模块:用于自动扩充训练集中语料不足的类别数据,从而提升系统在分类预测上的准确性;
自适应模块:当增加、减少或修改待分类的类别时,可以自动适应类别的变化;
其特征在于:所述分类方法包括以下步骤:
步骤1,首先将用户咨询问题输入到基于混合注意力的原型网络方法中得到各个类上的得分向量P1,然后将用户咨询问题输入到词向量相似度方法中得到各个类上的得分向量P2,通过注意力机制对P1和P2加权求和得到最终的得分向量P,从而输出得分最高的类别;其中,得分向量P=αP1+βP2,α,β为注意力系数;
步骤2,首先判断模型预测得到最终类别的训练数据是否充足,当数据不足时,计算样本预测结果的置信度,若置信度超过系统设置的阈值,则将该样本保存到临时语料库中,当临时语料库的数据量达到200条后,将其扩充到训练集中重新训练模型,从而提高模型准确率;
步骤3,当待分类类别发生增加、减少或修改时,需要微调模型,并利用测试集中的数据对模型进行测试,如果在测试集上的准确率低于系统设置的阈值,则触发模型重新训练;另外,在增加类别时,对应各类的样本量不得低于20条;
所述基于混合注意力的原型网络方法的工作步骤如下:
步骤11,方法采用小样本学习的N-way K-shot方式进行训练,对于输入该模块的训练集数据,首先抽取N个类别,每个类别包含K个样本构成支持集S,并从这N个类别的剩余样本中每个类抽取Q个样本构成查询集;然后将支持集中的样本输入到编码层,将自然语言文本转化为计算机能够识别的向量形式E,同时,将查询集样本q输入编码层将其转化为特征向量xq;其中,支持集表示第i类的第j个样本,wt表示样本中的第t个词,n表示样本最大长度,表示第i类的第j个样本的特征向量;
步骤12,由于特征向量在不同维度上的特征对其所属类别的贡献度不同,因此,对于输入特征级注意力模块支持集中的各类样本,抽取各类样本在每个维度上的特征,得到更能表示其类别特点的特征向量Z=(z1,z2,…zN);其中zi表示第i类在特征维度上的权重向量;
步骤13,在小样本分类中,由于输入模型的训练数据很少,样本中含有噪声时会对模型性能产生很大影响;因此,通过实例级注意力模块对支持集中的各样本加权,使得与查询集样本相似度较高的样本赋予更高的权重,得到加权特征向量E′,从而减少噪声数据带来的影响;其中,表示支持集中第i类的第j个样本的加权特征向量;
步骤14,通过实例级注意力模块可以得到各样本加权特征向量,由此可以通过对各类样本的加权特征向量加和得到各类的类原型ci;
步骤15,通过特征级注意力模块可以得到各类样本在不同维度上的权重向量,由此可以根据各类的权重向量zi生成距离函数,并根据距离函数计算查询集样本q与各类原型之间的距离di,最后根据距离di可以得到样本q的所属类别;其中,距离函数表示为di=zi(ci-xq)2;
步骤16,对于输入该模块的用户咨询问题,可以根据距离函数计算其与各类原型之间的距离di,并根据距离di得到用户咨询问题属于各类的概率其中,表示在基于混合注意力原型网络方法中用户咨询问题属于第i类的概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于燕山大学,未经燕山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110061753.3/1.html,转载请声明来源钻瓜专利网。