[发明专利]电力领域模型预训练方法、精调方法、装置及设备有效
申请号: | 202211060951.9 | 申请日: | 2022-09-01 |
公开(公告)号: | CN115129826B | 公开(公告)日: | 2022-11-22 |
发明(设计)人: | 宋博川;张强;周飞;刘同阳;范晓宣;贾全烨 | 申请(专利权)人: | 国网智能电网研究院有限公司 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/35;G06F40/289;G06F40/30;G06K9/62 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 朱惠琴 |
地址: | 102209 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 电力 领域 模型 训练 方法 装置 设备 | ||
本发明公开了一种电力领域模型预训练方法、精调方法、装置及设备,其中,所述预训练方法包括:获取原始电力语料数据;对所述原始电力语料数据进行处理,所述处理至少包括分词处理;对处理后得到的电力语料数据,采用全词遮蔽的方法,构建电力领域模型的预训练语料;构建电力领域模型,所述电力领域模型包括注意力矩阵,所述注意力矩阵引入了词与词之间的相对位置编码;利用所述预训练语料,对所述电力领域模型进行预训练。本发明提供的技术方案,能够提升预训练模型的迁移能力。
技术领域
本发明涉及人工智能技术领域,具体涉及一种电力领域模型预训练方法、精调方法、装置及设备。
背景技术
现有的自然语言处理 (NLP,Natural Language Processing)模型包含的参数可以达到上百万。因此,训练出具有良好性能的NLP模型需要大量的训练样本和标签数据。通常,采用人工对训练样本进行标注。因此,获取大量的标签数据,需要较高的人工成本。
在此背景下,预训练加精调的模式广泛应用于NLP模型训练。首先利用成本较低且容易获取的训练数据训练一个预训练模型。通过这种方式,预训练模型可以学习到语言学的通用知识。因此,针对不同的下游任务,可以利用其相关的标签数据对其相关的参数进行精调,使得训练的NLP模型具有良好性能。
但是,在自然语言处理模型的预训练阶段,由于并非是针对下游任务进行训练的,而是针对预训练阶段的任务(例如预测遮蔽的词语)进行训练的,因此会导致预训练出的模型的迁移能力弱,即在对预训练模型进行精调得到针对下游任务的模型时,模型的适应性差,预测精度低。
发明内容
有鉴于此,本发明实施例提供了一种电力领域模型预训练方法、精调方法、装置及设备,以解决现有自然语言处理的预训练模型的迁移能力弱的问题。
根据第一方面,本发明实施例提供了一种电力领域模型预训练方法,所述方法包括:
获取原始电力语料数据;
对所述原始电力语料数据进行处理,所述处理至少包括分词处理;
对处理后得到的电力语料数据,采用全词遮蔽的方法,构建电力领域模型的预训练语料;
构建电力领域模型,所述电力领域模型包括注意力矩阵,所述注意力矩阵引入了词与词之间的相对位置编码;
利用所述预训练语料,对所述电力领域模型进行预训练。
可选的,引入了词与词之间的相对位置编码的所述注意力矩阵的算法公式为:
其中,
可选的,所述对所述原始电力语料数据进行处理,包括:
采用BERT-CRF模型和电力领域词典对所述原始电力语料数据进行分词处理,所述BERT-CRF模型是利用电力分词语料进行训练得到。
可选的,所述对处理后得到的电力语料数据,采用全词遮蔽的方法,构建电力领域模型的预训练语料,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国网智能电网研究院有限公司,未经国网智能电网研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211060951.9/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种高速液压锤桩机
- 下一篇:一种茶叶检测用浸泡装置及其使用方法