[发明专利]基于Transformer的土木建筑信息领域自然语言问题生成方法有效
申请号: | 202011249217.8 | 申请日: | 2020-11-10 |
公开(公告)号: | CN112559702B | 公开(公告)日: | 2022-09-30 |
发明(设计)人: | 朱磊;焦瑞;黑新宏;赵钦;杨明松;姚燕妮;彭伟;董林靖 | 申请(专利权)人: | 西安理工大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/35;G06N3/08 |
代理公司: | 西安弘理专利事务所 61214 | 代理人: | 宁文涛 |
地址: | 710048 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 transformer 土木 建筑 信息 领域 自然语言 问题 生成 方法 | ||
1.基于Transformer的土木建筑信息领域自然语言问题生成方法,包括以下步骤:
步骤1:维基百科开放域文本的预训练;构建基于Transformer的12层堆叠模块,对中文维基百科文本公开语料进行人工预处理,形成上下句形式的统一结构,然后将处理好的维基百科语料输入进入模型进行模型预训练;
步骤2:土木建筑信息领域文本的预训练;取出第一步预训练的模型参数,然后对互联网上获取的土木建筑信息文本语料进行二次预训练,获取领域知识;
步骤3:随机采样语料的编码训练;为了使得模型获取句法和语法生成能力,本方法采集了开放域问答文本数据,并设计了对开放域问答和土木建筑问答数据的随机采样机制;不同的采样结果将通过嵌入方式输入到Transformer的不同层次模块中进行分层训练;
步骤4:训练优化与解码文本生成;在训练优化阶段,对于不同类型的采样数据,模型将取出不同层的Transformer模块进行梯度计算并反传优化;优化后的模型用于生成自然语言问题的推断,推断采用了beam search技术;
所述步骤3中,嵌入方式包括了Token词嵌入、段嵌入和位置嵌入;在嵌入编码时采用了UniLM的遮盖词策略,目的是提升模型的自然语言生成能力;
所述步骤3中,模型设计采用了12层UniLM思想的Transformer堆叠结构;
具体地,对给定输入序列{
在模型的每一层中,前一层输出为
2.根据权利要求1所述的基于Transformer的土木建筑信息领域自然语言问题生成方法,其特征在于,所述步骤1和步骤2中,文本标记的方法,采用BERT模型的文本标记方法;预训练阶段采用同Bert相同的双向遮盖预训练机制和下半句预测训练机制。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安理工大学,未经西安理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011249217.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种数据梳理的技术
- 下一篇:一种柔性钕铁硼磁体及其制备方法和应用
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法