[发明专利]基于BERT预训练模型的新词识别方法和装置在审
申请号: | 202110165682.1 | 申请日: | 2021-02-06 |
公开(公告)号: | CN112883721A | 公开(公告)日: | 2021-06-01 |
发明(设计)人: | 邵德奇;石聪;关培培;朱经南;赵诗阳;冯超;李腾飞;段治平 | 申请(专利权)人: | 科技日报社 |
主分类号: | G06F40/279 | 分类号: | G06F40/279;G06F40/289;G06K9/62;G06N3/04 |
代理公司: | 北京瀛和律师事务所 11744 | 代理人: | 邵晓玉 |
地址: | 100089*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供了一种基于BERT预训练模型的新词识别方法和装置,涉及新词挖掘的技术领域,包括获取语料信息,通过N‑Gram切词算法对语料信息进行分词处理得到多个新词词语;将新词词语输入BERT预训练模型的浅层网络,输出浅层稠密向量,其中,BERT预训练模型中引入有双向自注意力网络,浅层稠密向量包括新词词语的句法特征向量以及词法特征向量,浅层稠密向量用于识别新词词语的边界信息;提取新词词语的离散特征;将浅层稠密向量与离散特征输入DNN二分类模型,识别出正确的新词词语,通过BERT预训练模型的浅层网络确定词语的边界,进而准确识别出正确的新词。 | ||
搜索关键词: | 基于 bert 训练 模型 新词 识别 方法 装置 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于科技日报社,未经科技日报社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202110165682.1/,转载请声明来源钻瓜专利网。