[发明专利]一种基于BERT和前馈神经网络的文本纠错方法在审

专利信息
申请号: 202110098015.6 申请日: 2021-01-25
公开(公告)号: CN112836496A 公开(公告)日: 2021-05-25
发明(设计)人: 潘法昱;曹斌;於其之 申请(专利权)人: 之江实验室;浙江工业大学
主分类号: G06F40/232 分类号: G06F40/232;G06F40/289;G06F40/30;G06N3/04
代理公司: 杭州求是专利事务所有限公司 33200 代理人: 邱启旺
地址: 310023 浙江省杭州市余*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 bert 神经网络 文本 纠错 方法
【权利要求书】:

1.一种基于BERT和前馈神经网络的文本纠错方法,其特征在于,包含以下步骤:

1)对于文本纠错语料数据进行预处理。

2)将步骤1)预处理后的输入文本基于BERT编码,得到特征表示和语义表示。

3)基于步骤2)得到的输入文本语义表示,判断文本是否为正确文本。

4)基于步骤2)得到的输入文本特征表示和步骤3)的判断结果,检测文本中错误的位置。

5)基于步骤4)找到的错误位置,生成错误文本对应的正确文本。

2.如权利要求1所述基于BERT和前馈神经网络的文本纠错方法,其特征在于,所述步骤1)中,数据预处理方法:

1.1)对于获取的文本数据进行预处理操作。

1.2)对文本进行分词,如果为中文,则按字为单位进行分词;如果是英文,按wordpiece形式进行分词。

1.3)在文本开始处添加特殊字符“[CLS]”,在结束处添加特殊字符“[SEP]”。

1.4)如果为训练数据,通过比较分词后的源字符串和目标字符串,计算文本对错标签、字符错误类型标签和错误对应正确文本的标签。

3.如权利要求2所述基于BERT和前馈神经网络的文本纠错方法,其特征在于,所述步骤2)中,基于BERT编码文本表示:

2.1)利用BERT预训练字词向量和位置向量,字词嵌入和位置嵌入输入文本,获得文本初步向量表示:

其中,Eword是字词嵌入矩阵,Epos是位置嵌入矩阵,其中字嵌入矩阵的大小为[V,E],V是BERT定义的词表大小,E是嵌入维度,位置嵌入矩阵的大小为[512,E]。

2.2)利用BERT中的L层Transformer模块获取每个字符的语义特征表示其计算方法为:

Hl=Transformer(Hl-1)

2.3)利用“[CLS]”字符对应特征获得文本整体语义表示:

4.如权利要求3所述基于BERT和前馈神经网络的文本纠错方法,其特征在于,所述步骤3)中,判断文本是否为正确文本:

3.1)选择步骤2.3)中由BERT输出的文本整体语义表示c,作为判断文本对错的特征。

3.2)使用前馈神经网络,将c映射为一个数值,然后使用sigmoid函数,计算得到预测文本不正确的概率:

Prw=sigmoid(Wrwc+brw)

其中,Wrw和brw是深度学习模型学习的权重参数。

3.3)将Prw和人工设置的阈值进行比较来判断文本是否错误,如果小于阈值则认为文本是正确的。

3.4)对于判定为正确的输入文本,不再进行后续的纠错操作,直接将输入文本作为纠错结果输出。

3.5)在模型训练时,使用二元交叉熵损失函数来计算文本对错判断的损失值:

Lossrw=BCELoss(Prw,yrw)

其中,yrw是文本对错的真实值,通过比较源字符串和目标字符串是否相等得到。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室;浙江工业大学,未经之江实验室;浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110098015.6/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top