[发明专利]一种基于张量的高效Transformer的架构方法在审
申请号: | 202210556441.4 | 申请日: | 2022-05-19 |
公开(公告)号: | CN114841342A | 公开(公告)日: | 2022-08-02 |
发明(设计)人: | 朱晨露;刘德彬;阮一恒;张立杰;邓贤君;杨天若 | 申请(专利权)人: | 湖北楚天高速数字科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06K9/62 |
代理公司: | 深圳市科冠知识产权代理有限公司 44355 | 代理人: | 王丽坤 |
地址: | 430000 湖北省武汉市汉阳区四新大道26*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 张量 高效 transformer 架构 方法 | ||
1.一种基于张量的高效Transformer的架构方法,其特征在于,所述方法包括:
步骤10、将多头注意力层的权重矩阵映射到张量空间,然后再将其表示为k模的张量分解形式链;
步骤20、将输入数据(Qatt,Katt,Vatt)映射到张量空间,然后与对应的的权重张量链进行运算,并把结果进行“Attention”运算,再与的权重张量链进行运算得到最终输出结果,构建出轻量级张量化多头注意力机制;
步骤30、将编码器层的多头注意力层和解码器层的第一层子层的多头注意力层中相似的线性运算整合到一起,即把对应的权重张量拼接起来,形成权重张量将解码器层的第二个子层中相似的线性运算整合到一起,形成权重张量构建出轻量级张量化多头注意力机制++;
步骤40、将Position-wise前馈神经网络中的权重矩阵和映射到张量空间且将其表示为m模的张量分解形式,并与输入数据进行运算,构建出轻量级张量化Position-wise前馈网络;
步骤50、将轻量级张量化多头注意力机制和轻量级张量化Position-Wise前馈网络组成Ltensorized_transformer,将轻量级张量化Position-Wise前馈网络和轻量级张量化多头注意力机制++组成LTensorized_transformer++,构建出轻量级Transformer架构。
2.根据权利要求1所述的基于张量的高效Transformer的架构方法,其特征在于,所述步骤10包括以下具体步骤:
将queries,keys和values分别打包成矩阵Qatt,Katt和Vatt,并对矩阵Qatt,Katt和Vatt进行了h次线性投影,其中涉及到的权重矩阵可以统一表示为和将dmodel表示成多个正数因子的乘积,dmodel={d1×...×dk}×{dk+1×...×d2k}×...×{d(m-1)k+1×...×dmk};
将权重矩阵和WO映射到张量空间就得到权重张量和
根据公式(1)将权重张量和表示为k模的张量分解形式,公式(1)的定义如下:
3.根据权利要求2所述的基于张量的高效Transformer的架构方法,其特征在于,所述步骤20包括以下具体步骤:
步骤21、通过把输入数据映射到张量空间并与对应的小型权重张量核进行运算,运算的过程如公式(2)所示,所述公式(2)的定义如下:
步骤22、将运算结果进行reshape操作,并将其拆分成h等分,用列表L存储拆分的结果,整个计算过程如下:
D′=Reshape(D,[-1,dmodel]) (3)
T=Spht(D′)=(D′1,...,D′h) (4)
步骤23、将列表L中的存储数据取出来,和中各有由h个矩阵组成,利用公式(5)来获取对应下标的输入矩阵(和),并进行注意力计算,从而获得对应的注意力输出,所述公式(5)的定义如下:
Ri=Get(R,i) (5)
步骤24、利用公式(6)计算每个注意力的输出结果(headi),并将每个注意力的结果拼接在一起,与小型的权重张量核(的k模张量分解形式的结果)利用公式(2)进行多步特征计算得到最终的多头注意力层的输出结果,所述公式(6)的定义如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北楚天高速数字科技有限公司,未经湖北楚天高速数字科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210556441.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种高能空气爆破冲击装置及方法
- 下一篇:一种煤层钻孔可断尾冲洗孔装置及方法
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法