[发明专利]一种卷积神经网络的自蒸馏训练方法和可伸缩动态预测方法在审
申请号: | 201910725997.X | 申请日: | 2019-08-07 |
公开(公告)号: | CN110472730A | 公开(公告)日: | 2019-11-19 |
发明(设计)人: | 马恺声;张林峰 | 申请(专利权)人: | 交叉信息核心技术研究院(西安)有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/12;G06K9/62 |
代理公司: | 61200 西安通大专利代理有限责任公司 | 代理人: | 范巍<国际申请>=<国际公布>=<进入国 |
地址: | 710077 陕西省西安*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 浅层 精度提升 蒸馏 分类器 网络 分类器特征 尺寸扩大 尺寸缩小 输出 数据集 挤入 注意力 响应 配合 | ||
1.一种卷积神经网络的自蒸馏训练方法,其特征在于,包括如下步骤,
步骤1,根据目标卷积神经网络的深度和原始结构,以设定的深度区间将目标卷积神经网络的卷积层划分成n个部分,n为正整数且n≥2,其中第n层为最深层部分,其余层为浅层部分;
步骤2,在每个浅层部分之后分别设置浅层分类器进行分类,最深层部分之后设置最深层分类器进行分类;浅层分类器包括依次设置的瓶颈层、完全连接层和softmax层进行分类,最深层分类器包括依次设置的完全连接层和softmax层进行分类;
所述的浅层分类器的特定特征由如下的注意力模块得到,
Attention Maps(Wconv,Wdeconv,F)=σ(φ(ψ(F,Wconv)),Wdeconv)
其中,ψ和φ分别表示用于下采样的卷积层的卷积函数和用于上采样的反卷积层的反卷积函数,F表示输入特征,σ表示Sigmoid函数,Wconv表示卷积层的权重,Wdeconv表示反卷积层的权重;
步骤3,在训练时,最深层部分被视为教师模型,所有带有对应分类器的浅层部分都通过从最深层部分蒸馏而被训练为学生模型,从而实现卷积神经网络的自蒸馏训练。
2.根据权利要求1所述的一种卷积神经网络的自蒸馏训练方法,其特征在于,步骤3中,在训练时,引入如下三种损失提高学生模型的性能;
引入来自标签的交叉熵损失;根据来自训练数据集的标签和每个分类器的softmax层的输出计算得到交叉熵损失,将其引入到所有分类器中;
引入教师模型指导下的KL散度损失;根据每个学生模型和教师模型之间的softmax层输出来计算KL散度,将其对应引入到每个浅层分类器的softmax层;
引入来自提示的L2损失;通过计算最深层分类器和每个浅层分类器的特征图之间的L2损失,将其对应引入到每个浅层分类器瓶颈层。
3.根据权利要求2所述的一种卷积神经网络的自蒸馏训练方法,其特征在于,具体的,引入来自标签的交叉熵损失由如下公式得到,
(1-α)·Cross Entropy(qi,y)
其中,qi表示每个分类器θi/C的softmax层的输出;训练集为给定来自M个类别的N个样本将对应的标签集表示为yi∈{1,2,...,M};α为控制KL散度损失函数比例的超参数,KL为Kullback-Leibler散度,最深层分类器的α为零,CrossEntropy为交叉熵函数。
4.根据权利要求2所述的一种卷积神经网络的自蒸馏训练方法,其特征在于,具体的,引入教师模型指导下的KL散度损失由如下公式得到,
α·KL(qi,qC)
其中,α为控制KL散度损失函数比例的超参数,KL为Kullback-Leibler散度,qi表示每个分类器θi/C的softmax层的输出,qC为最深层分类器θC的softmax层的输出,最深层分类器的α为零。
5.根据权利要求2所述的一种卷积神经网络的自蒸馏训练方法,其特征在于,具体的,引入来自提示的L2损失由如下公式得到,
其中,Fi和FC分别表示每个分类器θi/C中的特征和最深层分类器θC中的特征,λ为控制特征损失函数比例的超参数,最深层分类器的λ为零。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于交叉信息核心技术研究院(西安)有限公司,未经交叉信息核心技术研究院(西安)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910725997.X/1.html,转载请声明来源钻瓜专利网。