[发明专利]一种基于预训练语言模型的长文本聚类方法及装置在审

专利信息
申请号: 202011093000.2 申请日: 2020-10-13
公开(公告)号: CN112836043A 公开(公告)日: 2021-05-25
发明(设计)人: 张震;石瑾;李鹏;王玉杰;张浩宇;贾国庆;吴飞 申请(专利权)人: 讯飞智元信息科技有限公司;国家计算机网络与信息安全管理中心
主分类号: G06F16/35 分类号: G06F16/35;G06K9/62
代理公司: 暂无信息 代理人: 暂无信息
地址: 230088 安徽*** 国省代码: 安徽;34
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 训练 语言 模型 文本 方法 装置
【权利要求书】:

1.一种基于预训练语言模型的长文本聚类方法,其特征在于,所述方法包括:

步骤SS1:使用文本摘要模型将长文本压缩为短文本;

步骤SS2:根据步骤SS1获得的所述短文本与BERT模型的有标签文本句子对来预测是否两个文本包含相同的事件,生成文本对初始分数;

步骤SS3:使用步骤SS2获得的所述文本对初始分数作为初始分数,根据文本对相较于其他文本的关系来重新计算分数;

步骤SS4:根据步骤SS3获得的文本对分数,从得分最高的文本对开始计算分组。

2.根据权利要求1所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述步骤SS1具体包括:采用PGN模型对需要进行聚类的文本进行处理,将长文本压缩为短文本,保留长文本的关键信息。

3.根据权利要求1所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述步骤SS2具体包括:训练一个BERT模型,通过BERT模型对文章中的文本进行评分,获得初始分数。

4.根据权利要求1所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述步骤SS2中的BERT模型的训练过程如下:

步骤SS21:对文档内的文本进行划分,将一篇文档划分为n个文本并进行编号;

步骤SS22:将这n个文本两两组合,组成个文本对,并对其进行标注是否属于同一簇类;

步骤SS23:将第一个文本和第二个文本分别作为BERT模型的输入,BERT模型输出预测结果。

5.根据权利要求1所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述步骤SS23还包括:对于BERT模型输出采用平均池化策略,将文本获得的所有词向量取平均值操作,将最终的向量作为文本的句向量;

由此获得第一个文本的句向量u=[u1,u2,u3,…,uk]和第二个文本的句向量v=[v1,v2,v3,…,vk];

将第一个文本的句子向量u和第二个文本的句子向量v以及两者按位求差向量进行拼接;将拼接好的向量乘以一个可训练的权重Wt∈R3k*l,获得BERT模型输出:

o=softmax(Wt(u,v,|u-v|))。

6.根据权利要求5所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述BERT模型输出为0和1作为预测结果,1代表着两个文本属于同一个簇,0代表着两个文本属于不同的簇。

7.根据权利要求3所述的一种基于预训练语言模型的长文本聚类方法,其特征在于,所述BERT模型为:BERT的双塔模型,两个BERT模型共享同样的参数;将两个文本输入到两个BERT模型中,分别获取到对应的文本向量,进而进行计算出两个文本的初始分数。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于讯飞智元信息科技有限公司;国家计算机网络与信息安全管理中心,未经讯飞智元信息科技有限公司;国家计算机网络与信息安全管理中心许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202011093000.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top