[发明专利]一种神经网络及该神经网络的学习方法在审
申请号: | 201710121076.3 | 申请日: | 2017-03-02 |
公开(公告)号: | CN106951960A | 公开(公告)日: | 2017-07-14 |
发明(设计)人: | 何伟娜;王伟;李真;李亚丽;梁华国;马丽;褚龙现;刘建芳;黄淼;郑浩;张国平;王魁祎;鲁亚峥;孙科;罗坤;王翠巧;杜建莹;史丽珂;吴新宇;肖梦雪;翟金运;舒娇娇;高留洋;宋会方;邵英萍;郭佳伟;王韵谱;樊毓东;马子超;李逸珂;黄阳阳;李雪洋;刘姗;王程龙;肖慧峰;徐海涛;姜世威;雷涵哲;李培然 | 申请(专利权)人: | 平顶山学院 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 西安铭泽知识产权代理事务所(普通合伙)61223 | 代理人: | 潘宏伟 |
地址: | 467000 河南省*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 神经网络 学习方法 | ||
1.一种神经网络,其特征在于:该神经网络由三层网络组成,包括输入层、隐含层和输出层,且各层之间实行全连接;
输入层,其中的神经元采用S型变换函数;
隐含层,神经网络中的隐含层有一个或多个隐层;
输出层,输出层中的神经元采用纯线性变换函数;
该神经网络的输入模式由输入层经隐含层向输出层的模式顺传播,网络的希望输出与网络实际输出之差的误差信号由输出层经隐含层向输入层逐层修正连接权的误差逆传播,并由模式顺传播与误差逆传播的反复交替进行网络记忆训练。
2.根据权利要求1所述的一种神经网络,其特征在于:所述S型变换函数为:
f(x)=1/(1+e-x)。
3.根据权利要求1所述的一种神经网络,其特征在于:所述隐含层中具有R个输入的基本神经元模型,每个输入都通过一个适当的权值ω与神经元连接,神经元的输出表示为:
a=f(ω*R,b)。
4.一种神经网络的学习方法,其特征在于:该神经网络的学习方法包括以下步骤:
S1:输入信息从输入层经过隐含层逐层处理并计算出各神经单元间的实际输出值;
S2:在输出层不能得到希望的输出时,逐层计算实际输出与要求输出的误差值,以便根据此误差值调整权值;
S3:从后向前修正各层次之间的联系权重,在不断学习和小修正的过程中,使神经网络学习误差达到最小。
5.根据权利要求4所述的一种神经网络的学习方法,其特征在于:所述步骤S1中,在计算实际输出值时,设有N个神经元互连,每个神经元的活性状态ai(i=1,2,3…,N),取0或1,表示抑制或兴奋,每个神经元的状态按下式所表示的规则受其他神经元的制约,
其中,θi为与值,Wij为神经元i与j之间突触连接强度。
6.根据权利要求4所述的一种神经网络的学习方法,其特征在于:所述步骤S2中,在计算实际输出与要求输出的误差值时,通过感知器表示一个神经元的运算特性,其输入状态向量记为:
Xn=(X1,X2,…,Xn)
其中,每个输入分量Xi为i个神经元的状态,记
ωn=(ω1,ω2,…,ωn)
为权向量,其中ωi为第i个神经元与感知器的连接权系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平顶山学院,未经平顶山学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710121076.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种钢水包结构
- 下一篇:一种高炉冶炼钢包自动烘烤装置