[发明专利]一种Bert模型预训练方法、系统及计算机设备在审
申请号: | 202011503784.1 | 申请日: | 2020-12-18 |
公开(公告)号: | CN112528650A | 公开(公告)日: | 2021-03-19 |
发明(设计)人: | 佘璇;段少毅 | 申请(专利权)人: | 恩亿科(北京)数据科技有限公司 |
主分类号: | G06F40/284 | 分类号: | G06F40/284;G06F40/126;G06N20/00 |
代理公司: | 青岛清泰联信知识产权代理有限公司 37256 | 代理人: | 赵燕 |
地址: | 100192 北京市海淀区西小口路66*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请涉及一种Bert模型预训练方法、系统及计算机设备,其中,该Bert模型预训练方法包括:原始数据集获取步骤,用于获取原始数据集;数据集预处理步骤,用于将所述原始数据集经分词处理得到分词数据集,将所述分词数据集经Word2Vec模型训练得到全部词汇的词嵌入矩阵,并将所述词汇根据出现频率进行排序、编码,得到高频词汇、低频词汇及词汇编码;Bert模型预训练步骤,用于冻结所述Bert模型的词嵌入矩阵参数并基于所述全部词汇的词嵌入矩阵训练所述Bert模型后,减小学习率并输入所述词汇编码再次训练所述Bert模型。通过本申请,优化模型参数的收敛,有效防止模型震荡。 | ||
搜索关键词: | 一种 bert 模型 训练 方法 系统 计算机 设备 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于恩亿科(北京)数据科技有限公司,未经恩亿科(北京)数据科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202011503784.1/,转载请声明来源钻瓜专利网。