[发明专利]一种面向金融场景的端到端自然语言处理训练框架与方法在审
申请号: | 202111163479.7 | 申请日: | 2021-09-30 |
公开(公告)号: | CN113887230A | 公开(公告)日: | 2022-01-04 |
发明(设计)人: | 付志兵;张梦超;李渔;费斌杰 | 申请(专利权)人: | 北京熵简科技有限公司 |
主分类号: | G06F40/295 | 分类号: | G06F40/295;G06F40/30;G06F16/35;G06K9/62;G06N3/04;G06N3/08;G06Q40/02 |
代理公司: | 上海剑秋知识产权代理有限公司 31382 | 代理人: | 徐浩俊 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 金融 场景 端到端 自然语言 处理 训练 框架 方法 | ||
1.一种面向金融场景的端到端自然语言处理训练框架,其特征在于,包括:
Google原生BERT模块,所述Google原生BERT模块为所述训练框架的起点,包括Google原生BERT,并接收通用语料数据作为模块的输入;
FinBERT预训练模块,所述FinBERT预训练模块连接所述Google原生BERT模块,用金融领域语料数据对所述Google原生BERT进行二次预训练,得到适用于金融领域的BERT,称为FinBERT;
基于类似self-training思想从外部相关数据中挖掘新数据模块,所述基于类似self-training思想从外部相关数据中挖掘新数据模块连接所述FinBERT预训练模块,用TASKLABEL语料对所述FinBERT进行训练,得到TASK Model,并接收外部语料,生成TASK相关语料;
下游任务语料上进行预训练模块,所述下游任务语料上进行预训练模块连接所述基于类似self-training思想从外部相关数据中挖掘新数据模块,对所述FinBERT进行再一次的预训练,得到TASK FinBERT;
用半监督学习的框架来充分利用无标签语料模块,所述用半监督学习的框架来充分利用无标签语料模块连接所述下游任务语料上进行预训练模块,通过接收所述TASK LABEL语料和所述TASK相关语料,在所述TASK FinBERT的基础上进行训练得到UDA FinBERT;
知识蒸馏模块,所述知识蒸馏模块连接所述用半监督学习的框架来充分利用无标签语料模块,利用蒸馏技术将所述UDA FinBERT学习到的知识和特征蒸馏到轻量级模型上;
线上部署模块,所述线上部署模块连接所述知识蒸馏模块,将所述轻量级模型部署上线,用于实际生产环境。
2.如权利要求1所述的面向金融场景的端到端自然语言处理训练框架,其特征在于,所述Google原生BERT包括FinBERT-Base和FinBERT-Large;其中,所述FinBERT-Base采用12层Transformer结构,所述FinBERT-Large采用24层Transformer结构。
3.如权利要求1所述的面向金融场景的端到端自然语言处理训练框架,其特征在于,所述FinBERT的训练方式包括采用字词级别的预训练和任务级别的预训练。
4.如权利要求1所述的面向金融场景的端到端自然语言处理训练框架,其特征在于,所述知识蒸馏模块包括教师模型和学生模型,将所述教师模型的输出结果作为知识,让所述学生模型去拟合,从而将所述教师模型学习到的所述知识转移到所述学生模型上,其中,所述教师模型是大参数量模型,所述学生模型是轻量级的小模型,即所述轻量级模型。
5.如权利要求4所述的面向金融场景的端到端自然语言处理训练框架,其特征在于,所述知识包括软标签和硬标签;所述软标签包括Logits,或者概率值;所述硬标签为将所述概率值求Argmax后得到的One-hot标签;当使用所述Logits作为知识的时候,损失函数选择MSE;当使用所述概率值作为知识的时候,选择KL散度作为损失函数;当使用所述硬标签作为知识时,选择交叉熵作为损失函数。
6.如权利要求5所述的面向金融场景的端到端自然语言处理训练框架,其特征在于,当使用所述概率值作为知识的时候,引入温度超参数;所述温度超参数用来控制概率分布的情况,式子(1)表示加入所述温度超参数后的概率计算公式:
其中,Zt表示所述Logits,T为温度参数,T的取值区间为[1,20],T越大,则概率分布越均匀,保留的信息越多;T越小,越接近One-hot编码,保留的信息越少。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京熵简科技有限公司,未经北京熵简科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111163479.7/1.html,转载请声明来源钻瓜专利网。