[发明专利]多层神经网络模型的训练和应用方法、装置及存储介质在审
申请号: | 201811633954.0 | 申请日: | 2018-12-29 |
公开(公告)号: | CN111382833A | 公开(公告)日: | 2020-07-07 |
发明(设计)人: | 陶玮;高红星;陈则玮;温东超;刘俊杰 | 申请(专利权)人: | 佳能株式会社 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/06;G06N3/08 |
代理公司: | 北京怡丰知识产权代理有限公司 11293 | 代理人: | 迟军;李艳丽 |
地址: | 日本国东京都*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多层 神经网络 模型 训练 应用 方法 装置 存储 介质 | ||
1.一种多层神经网络模型的应用方法,其特征在于,包括:
针对多层神经网络模型中的至少一卷积层,扩展该卷积层的滤波器通道数;
在前向传播时,基于应用要求对应的数据,利用通道数扩展后的滤波器进行所述卷积层中的数据运算;
在执行完前向传播后输出应用结果。
2.根据权利要求1所述的应用方法,其中,通过复制滤波器的通道来扩展滤波器的通道数。
3.根据权利要求1所述的应用方法,其中,还包括:
通道数扩展后的滤波器的高不小于通道数扩展前的滤波器的高,以及,
通道数扩展后的滤波器的宽不小于通道数扩展前的滤波器的宽。
4.一种多层神经网络模型的训练方法,其特征在于,包括:
针对待训练的多层神经网络模型中的至少一卷积层,扩展该卷积层的滤波器通道数;
在前向传播时,基于用于训练的数据,利用通道数扩展后的滤波器进行所述卷积层中的数据运算;
在反向传播时,根据通道数扩展后的通道中的相同通道上权重的梯度值更新通道数扩展前的通道上权重的梯度值,实现对所述网络模型的训练;
其中,所述相同通道是从扩展前的同一通道扩展而来的。
5.根据权利要求4所述的训练方法,其中,通过复制滤波器的通道来扩展滤波器的通道数。
6.根据权利要求4所述的训练方法,其中,还包括:
通道数扩展后的滤波器的高不小于通道数扩展前的滤波器的高,以及,
通道数扩展后的滤波器的宽不小于通道数扩展前的滤波器的宽。
7.根据权利要求4所述的训练方法,其中,更新数量扩展前的通道上权重的梯度值,具体包括:
确定所述相同通道上各权重的梯度值;
将相同通道上的、位于相同位置处的权重的梯度值取平均,并将梯度平均值作为梯度值要被更新的、数量扩展前的通道上的权重在所述位置处的梯度值。
8.一种多层神经网络模型的应用方法,其特征在于,包括:
在前向传播时,针对至少一个卷积层,将该卷积层的多个输入特征图进行累加,并利用累加后的输入特征图与所述卷积层中的滤波器进行所述卷积层中的卷积运算;
在执行完前向传播后输出应用结果。
9.根据权利要求8所述的应用方法,其中,将多个输入特征图进行累加,具体包括:
对所述多个输入特征图进行分组,使组中的输入特征图的数量等于所述卷积层中滤波器的通道数,且至多一组中的输入特征图的数量小于所述滤波器的通道数;
将各组中的输入特征图进行累加,得到累加后的、数量等于所述滤波器的通道数的输入特征图。
10.根据权利要求9所述的应用方法,其中,在所述应用方法之前的对多层神经网络模型的训练方法中,在通过扩展滤波器的通道数、利用通道数扩展后的滤波器与输入特征图进行运算的情况下,将各组中的输入特征图进行累加,具体包括:
将各组中满足以下条件的输入特征图进行累加,该条件为:进行累加的输入特征图在所述多个输入特征图中的位置与在训练方法中的、与扩展后的相同通道进行运算的输入特征图的位置相同,所述相同通道是从扩展前的同一通道扩展而来的。
11.一种多层神经网络模型的应用装置,其特征在于,包括:
扩展单元,其被构造为预先扩展多层神经网络模型中至少一卷积层中的滤波器通道数;
前向传播单元,其被构造为基于应用要求对应的数据,利用通道数扩展后的滤波器进行所述卷积层中的数据运算;
输出单元,其被构造为在执行完前向传播后输出应用结果。
12.根据权利要求11所述的应用装置,其中,
所述扩展单元通过复制滤波器的通道来扩展滤波器的通道数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于佳能株式会社,未经佳能株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811633954.0/1.html,转载请声明来源钻瓜专利网。