[发明专利]一种基于专用语料库字向量的无监督中文分词方法有效
申请号: | 201910366794.6 | 申请日: | 2019-05-05 |
公开(公告)号: | CN110263320B | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 江瑞;黄浩;鲁永浩 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F40/289 | 分类号: | G06F40/289;G06F17/11;G16H10/60 |
代理公司: | 北京鸿元知识产权代理有限公司 11327 | 代理人: | 管士涛;曹素云 |
地址: | 100084 北京市海淀区1*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于专用语料库字向量的无监督中文分词方法,该方法包括预处理语料库,得到在语料库上的每个字对应的字向量;根据所述字向量计算出字间粘连度;计算出最佳分词路径实现无监督中文分词。对于字向量的训练,采用开源的word2vec方法,将中文语料中的每一个字对应得到一个向量,训练后,基于句子中每个字的字向量,计算每两个相邻字的字向量粘连度,在相邻字之间粘连度最小处分割,实现分词。该方法可以通过对语料进行无监督的训练进行信息提取,并利用信息直接对输入语句进行分词,便于对语料进行命名实体识别等其他任务的处理。 | ||
搜索关键词: | 一种 基于 专用 语料库 向量 监督 中文 分词 方法 | ||
【主权项】:
1.一种基于专用语料库字向量的无监督中文分词方法,其特征在于,所述方法包括如下步骤:步骤一、预处理语料库,得到在语料库上的每个字对应的字向量;步骤二、根据所述字向量计算出字间粘连度;步骤三、计算出最佳分词路径实现无监督中文分词。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910366794.6/,转载请声明来源钻瓜专利网。
- 上一篇:一种基于网页文本的学者观点抽取方法
- 下一篇:一种情感词典构建方法及系统