[发明专利]一种神经网络训练方法和装置有效
申请号: | 201710459806.0 | 申请日: | 2017-06-16 |
公开(公告)号: | CN109146073B | 公开(公告)日: | 2022-05-24 |
发明(设计)人: | 姚骏;刘武龙;汪玉;夏立雪 | 申请(专利权)人: | 华为技术有限公司;清华大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/063 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请提供了一种神经网络训练方法,应用于阻变存储器RRAM上,该方法包括:将神经网络中第r层的神经元输入值输入到RRAM中,根据RRAM中的过滤器对神经元输入值进行计算,得到神经网络中第r层的神经元输出值,根据RRAM的核值、神经网络中第r层的神经元输入值、神经网络中第r层的神经元输出值以及神经网络中第r层的反向传播误差值进行计算,得到神经网络中第r层的反向传播更新值,将神经网络中第r层的反向传播更新值与预设阈值进行比较,当神经网络中第r层的反向传播更新值大于预设阈值,则根据神经网络中第r层的反向传播更新值对RRAM中的过滤器进行更新。本申请旨在通过设置预设阈值减少神经网络训练中的更新操作,从而延长RRAM的使用寿命。 | ||
搜索关键词: | 一种 神经网络 训练 方法 装置 | ||
【主权项】:
1.一种神经网络训练方法,其特征在于,应用于阻变存储器(Resistive Random Access Memory,RRAM)上,所述方法包括:将神经网络中第r层的神经元输入值输入到所述RRAM中,根据所述RRAM中的过滤器(filter)对所述神经元输入值进行计算,得到所述神经网络中第r层的神经元输出值,其中,n为大于0的正整数,m为大于0的正整数;根据所述RRAM的核值、所述神经网络中第r层的神经元输入值、所述神经网络中第r层的神经元输出值以及所述神经网络中第r层的反向传播误差值进行计算,得到所述神经网络中第r层的反向传播更新值;其中,所述RRAM的核值为所述RRAM中的过滤器的矩阵值,所述神经网络中第r层的反向传播误差值是根据所述神经网络第r层的神经元输出值和所述神经网络第r层的神经元参考输出值得到的;将所述神经网络中第r层的反向传播更新值与预设阈值进行比较,当所述神经网络中第r层的反向传播更新值大于所述预设阈值,则根据所述神经网络中第r层的反向传播更新值对所述RRAM中的过滤器进行更新。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司;清华大学,未经华为技术有限公司;清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710459806.0/,转载请声明来源钻瓜专利网。
- 上一篇:基于卷积神经网络加速器的数据重用方法
- 下一篇:图像对象识别