[发明专利]一种树突神经网络初始化方法在审
申请号: | 202110655038.2 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113408602A | 公开(公告)日: | 2021-09-17 |
发明(设计)人: | 秦峰;嵇凌;陈奕钊;葛宏宇;王辉;吴林印;罗旭东 | 申请(专利权)人: | 中国电子科技集团公司第三十四研究所 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 桂林市华杰专利商标事务所有限责任公司 45112 | 代理人: | 周雯 |
地址: | 541004 广西壮*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 树突 神经网络 初始化 方法 | ||
本发明属于人工神经网络优化领域,具体涉及一种树突神经网络初始化方法,包括对神经元树突的修剪,包括如下步骤:步骤一:使用
技术领域
本发明属于人工神经网络优化领域,具体涉及一种树突神经网络 初始化方法。
背景技术
人工神经网络(ANN)是受自然神经元抑制和触发的电位生成机 制启发而建立的一种操作模型。ANN成功地解决了预测估计领域中 的许多实际问题,例如树突神经网络(DNM)成功用于乳腺癌、肝 病、信用等高精度分类以及金融时间序列,汇率与旅客到达,中国房 价指数的预测,建立树突状神经元模型需要对神经元的树突进行修剪, 以达到信息传输和存储的效果。有人聚焦于过滤级修剪,即根据神经 元的重要性进行剪切,该方法在不改变原有的网络结构上,提高了网 络的性能,具有较强的泛化能力;有人提出了一种修剪人工神经网络 的新方法,利用神经网络的神经复杂度进行度量,在保持学习行为和 适合度的同时,减少过大复杂度的网络,这种修剪方法是对最常用的 基于幅度的修剪方法的重大改进;有人提出了一种径向基函数(RBF) 网络的顺序学习算法,称为RBF网络的广义增长和修剪算法 (GGAP-RBF),GGAP-RBF神经网络的生长和修剪策略是基于所需的 学习精度与最近增加的新神经元重要性进行的,但是,该方法复杂度 较高,不利于实际应用;也有人提出了一种新的通道剪枝方法来加速 非常深的卷积神经网络,并提出了一种迭代两步算法,通过基于 LASSO回归的通道选择和最小二乘重构来有效地剪枝每一层,进一 步将该算法如果推广到多层、多分支的情况,但该方法会剪切贡献度 高的神经元,使得网络精度下降。
树突神经网络(DNM)是一种仿生学网络,神经元的基本结构包括 树突、轴突、胞体和细胞核。因此,树突神经网络有四层:Synaptic、 Dendritic、Membrane和Soma层。Synaptic层接收输入信号并使用 sigmoid函数将线性信号转换为神经元信号。Dendritic层是对Synaptic 层的输出进行汇聚处理。Membrane层是增强Dendritic层的输出,并 将结果输入到Soma层。Soma层利用另一个Sigmoid函数来给出最 终结果。
参见图1,所示为一个有6层Dendrite和9个输入的DNM网络 结构图。其中,输入xi的通过Dendritic与Synaptic层连接(四种连接 状态),Membrane层对Synaptic层的输出进行增强激活并将其转移到 Soma层。
Synaptic层是神经元间信息交互的重要组成部分。该层利用 Sigmoid函数将线性信号转化为神经元信号。根据接收离子引起的电 位变化,Synapses层可分为抑制性Synapses和兴奋性Synapses两种 形式。Synapses层公式如下:
其中,Yij代表从第i个输入到第j个Synapses层的输出,范围为 [0,1]。k为连接参数,通常设置为1到10之间的整数。当ωij和θij取 不同值时,可对应于四个连接状态,参见图2。四种连接状态描述如 下:
1)常0连接(ωij<0<θij或0<ωij<θij),在该状态下,无论xi的值 如何,输出Yij均为0。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第三十四研究所,未经中国电子科技集团公司第三十四研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110655038.2/2.html,转载请声明来源钻瓜专利网。