[发明专利]基于多注意力机制互信息的分布式小样本图像分类系统在审
申请号: | 202310324905.3 | 申请日: | 2023-03-29 |
公开(公告)号: | CN116524239A | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 王喆;李冬冬;马平川;杨海;唐芮琪 | 申请(专利权)人: | 华东理工大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/82;G06N3/0464;G06N3/08;G06N3/048 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 200030 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 注意力 机制 互信 分布式 样本 图像 分类 系统 | ||
1.基于多注意力机制互信息的分布式小样本图像分类系统,其特征主要包含以下步骤:
(1)将原始图像数据集随机划分为带标签的基类数据集和仅有少量带标签数据的新类数据集;
(2)将划分好的基类数据送入ConvNet提取样本初始特征fφ;
(3)将提取到fφ的特征送入通道注意力机制网络和空间注意力机制网络提取更具有表示性的特征Mc(fφ)和Ms(fφ);
(4)将利用注意力机制提取到的特征Mc(fφ)和Ms(fφ)送入标签传播网络训练得到网络的预测值P1,P2和损失值J1,J2;
(5)利用得到的预测值P1,P2和损失值J1,J2通过互学习模块进行融合,得到网络最终的损失值,并计算出每个分布式节点的梯度;
(6)最后利用all-reduce算法聚合每个分布式节点的梯度进行分布式训练;
(7)训练阶段结束以后得到训练好的模型,再将新类数据送入模型进行测试,得到模型最终的性能。
2.根据权利要求书1所述的方法,其特征在于将提取到的特征fφ送入并行的通道注意力机制网络和空间注意力机制网络提取更具有表示性的特征:
其中fφ表示输入的特征图,MLP表示多层感知机,AvgPool表示平均池化操作,MaxPool表示最大池化操作,和表示经过平均池化和最大池化之后的特征图,w0和w1表示多层感知机模型中的两层参数,σ表示sigmoid函数。
其中σ表示sigmoid函数。和表示经过平均池化操作和最大池化操作之后的特征图。f7×7表示卷积操作使用过的是7×7的卷积核。
3.根据权利要求书1所述的方法,其特征在于通过互学习模块融合不同网络的信息,得到网络最终的损失值,本发明的互学习利用了不同注意力机制提取到的特征,不是简单的将相同网络进行互学习。首先计算两个网络预测结果之间的KL(Kullback-Leibler)距离:
其中P1,P2表示两个网络的预测结果,xi表示特征提取之后的样本特征,N表示支持集中的样本的类别数,K表示每个类别中的样本数,T表示查询集中的样本数。之后根据KL距离计算网络最终的损失:
L1=J1+DKL(P1||P2)
L2=J2+DKL(P2||P1)
L=L1+L2
其中J1,J2表示两个网络的损失,L1,L2表示两个网络经过互学习之后的损失。
4.根据权利要求书1所述的方法,其特征在于聚合每个分布式节点的梯度进行分布式训练,在进行分布式训练的过程中,每个节点由独立的进程控制,每个节点上的模型相同,都有自己的向前过程,在最终计算出各个节点的梯度之后,对梯度进行聚合,保证更新模型参数的同步。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东理工大学,未经华东理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310324905.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:用于视频翻译的方法、装置、电子设备和介质
- 下一篇:多频段共口径圆极化天线