[发明专利]一种基于transformer多种注意力机制的权重分配方法在审
申请号: | 201910924914.X | 申请日: | 2019-09-27 |
公开(公告)号: | CN110688860A | 公开(公告)日: | 2020-01-14 |
发明(设计)人: | 闫明明;陈绪浩;罗华成;赵宇;段世豪 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06F40/47 | 分类号: | G06F40/47;G06F40/45 |
代理公司: | 51126 成都中亚专利代理有限公司 | 代理人: | 王岗 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 注意力机制 输出 注意力模型 目标语言 对齐 正则化 计算过程 权重分配 权重函数 实验效果 随机参数 词向量 源语言 最优性 运算 逼近 偏离 翻译 保存 | ||
1.一种基于transformer多种注意力机制的权重分配方法,应用基于注意力机制的transformer模型中,其特征在于;包括如下步骤:
步骤1:在transformer模型中,针对应用情景选取其中较优秀的模型输出。
步骤2:初始化权重序列δ的值,第一次计算时权重序列δ为随机数,并且δ1+δ2+....+δi=1;
步骤3:将各模型输出进行正则化计算并计算出各输出的中心点(与所有值最接近的点),通过计算公式fin_out=δ1O1+δ2O2+δ3O3.......+δiOi计算出最优的匹配值作为最终输出;其中δ1+δ2+....+δi=1且δi是我们设置的权重参数;Oi是各种注意力模型的输出;
步骤4:将最终输出代入后续运算中,计算与上一次训练相比损失函数的差值,若损失函数下降,则提高δ中靠中心点的序列比重;若损失函数上升,则提升δ序列中与中心点最远的序列比重,整个过程严格遵守δ1+δ2+....+δi=1的规则;
步骤5:多次循环迭代计算,最终确定最佳权重序列δ。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910924914.X/1.html,转载请声明来源钻瓜专利网。