[发明专利]基于注意力机制和语言模型学习的中文命名实体识别方法有效
申请号: | 201811517779.9 | 申请日: | 2018-12-12 |
公开(公告)号: | CN109657239B | 公开(公告)日: | 2020-04-21 |
发明(设计)人: | 廖伟智;马攀;王宇;阴艳超 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06F40/295 | 分类号: | G06F40/295 |
代理公司: | 成都虹盛汇泉专利代理有限公司 51268 | 代理人: | 王伟 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于注意力机制和语言模型学习的中文命名实体识别方法,该方法包括构建基于字的字典,对每个元素对应的ID号进行向量转换,通过restricted Self‑attention层进行组合,通过第一层Bi‑LSTM进行拼接组合并训练语言模型,通过第二层Bi‑LSTM进行拼接组合并采用条件随机场方法进行标签预测训练,将数据集进行随机排列并采用Adam优化方法进行多轮训练,利用神经网络对待识别的文本数据进行中文命名实体识别。本发明只基于字的特征,不需要进行分词和其他的词性、句法等人工特征,提高了方法的健壮性和鲁棒性;而且本发明对未登录词表现良好,且性能优良,可以很好的提高下游任务的性能。 | ||
搜索关键词: | 基于 注意力 机制 语言 模型 学习 中文 命名 实体 识别 方法 | ||
【主权项】:
1.一种基于注意力机制和语言模型学习的中文命名实体识别方法,其特征在于,包括以下步骤:A、获取已标注标签的中文命名实体识别的数据集,构建基于字的字典;B、对步骤A构建的基于字的字典中每个元素对应的ID号进行向量转换处理;C、将步骤B转换后的字向量通过restricted Self‑attention层进行组合,获取每个中心字在附近窗口范围内与其他字向量的加权组合的字向量,挖掘中心字在附近窗口范围内的潜在的词信息;D、将步骤C获取的字向量通过第一层Bi‑LSTM进行处理,得到两个方向的每个时间步的隐藏层输出,将得到的输出进行拼接组合,并利用每个时间步的隐藏层输出训练语言模型;E、将步骤D得到的拼接结果通过第二层Bi‑LSTM进行处理,得到二次拼接组合的输出,并采用条件随机场方法进行标签预测训练;F、将已标注标签的中文命名实体识别的数据集进行随机排列处理,并采用Adam优化方法循环步骤A‑E对神经网络进行多轮训练;G、利用神经网络对待识别的文本数据进行处理,完成中文命名实体识别。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811517779.9/,转载请声明来源钻瓜专利网。