[发明专利]基于Transformer网络的文本处理方法及系统在审
申请号: | 202211165132.0 | 申请日: | 2022-09-23 |
公开(公告)号: | CN115455979A | 公开(公告)日: | 2022-12-09 |
发明(设计)人: | 王中风;周晨晨;路思远;林军 | 申请(专利权)人: | 南京大学 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06F40/289;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京弘权知识产权代理有限公司 11363 | 代理人: | 逯长明;朱炎 |
地址: | 210023 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 transformer 网络 文本 处理 方法 系统 | ||
1.一种基于Transformer网络的文本处理方法,其特征在于,包括:
当前次编码计算后,更新一个数据批内每条输入文本的已编码次数;
分别判断每条输入文本是否可以提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数;
如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本;
对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器。
2.根据权利要求1所述的一种基于Transformer网络的文本处理方法,其特征在于,还包括:
重复编码计算、判断每条输入文本是否可以提前退出或每条输入文本的已编码次数是否达到预设的最大计算层数,以及用待处理文本更新对应的输入文本,直至所有待处理文本均已得到处理。
3.根据权利要求1所述的一种基于Transformer网络的文本处理方法,其特征在于,所述当前次编码计算后,更新一个数据批内每条输入文本的已编码次数之前,还包括:
获取待处理文本集,所述待处理文本集包括多条待处理文本;
初始化输入张量集,输入张量集中张量的位置数量为数据批大小,张量的初始值为空;
初始化编码次数集,编码次数集中元素的数量为数据批大小,元素用于记录对应输入文本的已编码次数;
取出输入张量集中空缺位置数量的待处理文本,得到至少一条输入文本;
将输入文本转化的填充张量加入输入张量集中空缺位置;
对输入张量集中各张量进行编码计算。
4.根据权利要求3所述的一种基于Transformer网络的文本处理方法,其特征在于,所述更新一个数据批内每条输入文本的已编码次数,包括:
将编码次数集中每个元素加1。
5.根据权利要求3所述的一种基于Transformer网络的文本处理方法,其特征在于,所述如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本,包括:
如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则将输入张量集中对应的张量置空,以及,将编码次数集中对应的元素置空;
重复所述取出输入张量集中空缺位置数量的待处理文本和所述将输入文本转化的填充张量加入输入张量集中空缺位置。
6.根据权利要求5所述的一种基于Transformer网络的文本处理方法,其特征在于,还包括:如果输入文本未能提前退出且已编码次数未达到预设的最大计算层数,则直接进行下一次编码计算。
7.一种基于Transformer网络的文本处理系统,其特征在于,包括:
更新编码次数模块,用于当前次编码计算后,更新一个数据批内每条输入文本的已编码次数;
判断模块,用于分别判断每条输入文本是否可以提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数;
更新输入文本模块,用于如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本;
下一次编码计算模块,用于对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器。
8.根据权利要求7所述的一种基于Transformer网络的文本处理系统,其特征在于,还包括重复编码模块,所述重复编码模块用于重复编码计算、判断每条输入文本是否可以提前退出或每条输入文本的已编码次数是否达到预设的最大计算层数,以及用待处理文本更新对应的输入文本,直至所有待处理文本均已得到处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211165132.0/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法