[发明专利]一种自组织协同神经网络模型学习及构建方法在审
申请号: | 201910875365.1 | 申请日: | 2019-09-17 |
公开(公告)号: | CN110580521A | 公开(公告)日: | 2019-12-17 |
发明(设计)人: | 李海峰;王子豪;马琳;丰上;徐聪;李洪伟;薄洪健;陈婧;孙聪珊 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 51241 成都方圆聿联专利代理事务所(普通合伙) | 代理人: | 李鹏 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 序参量 原型模式 模式矩阵 构建 协同神经网络 矩阵 数据预处理 网络初始化 模式计算 模型学习 输入样本 网络模型 相似程度 扩展性 层结合 输出层 输入层 网络层 重定义 自学习 自组织 网络 调控 引入 全局 改进 学习 | ||
本发明公开了一种自组织协同神经网络模型学习及构建方法,学习方法包括:数据预处理;网络初始化;基于SOM网络的原型模式自学习。构建方法包括:伴随模式计算;在计算得出伴随模式矩阵后,原型模式矩阵作为连接输入层和序参量层的权值,伴随模式矩阵作为连接序参量层和输出层的权值,网络开始工作。本发明的优点是:改进了SNN网络模型,通过原型模式及其伴随模式还有序参量的重定义,克服了SNN结构单一、扩展性较差的问题。在此基础上,通过引入Kohonen网络层,与SNN的序参量层结合,基于序参量原型模式与输入样本相似程度的实际意义,解决了SNN工作过程中全局调控困难的问题。
技术领域
本发明涉及人工智能与模式识别技术领域,特别涉及一种基于协同神经网络(Synergetic Neural Network,SNN)的自组织协同神经网络(Self-organized SNN,SoSNN)模型学习及构建方法。
背景技术
1973年德国物理学家Haken首次提出了协同学(Synergetics)理论,之后被广泛应用于物理学、化学、生物学、神经科学、心理学和社会学等各个领域。作为系统科学的重要分支理论,协同学主要研究远离平衡态的开放系统如何通过内部协同作用,自发地出现时间、空间和功能上的有序结构。类似地,大脑中各区域的协同也是大脑解决复杂问题的主要模式,与传统ANN存在本质差异,传统ANN体现了层级结构,但并未实现分工、竞争与协作,不能灵活地应对多变的任务。用于模式识别领域的协同神经网络理论(Synergetic NeuralNetwork,SNN)在上世纪90年代提出,SNN利用支配原理和势函数机制构造出一系列互相关联的子系统,在运作过程中互相协同以生成解决问题的最优方案。但由于SNN理论的发展也受限于相关领域研究的进展(如脑工作原理、认知神经科学、心理学等),故相关研究相对较少。
目前,SNN在2个方面存在亟待解决的问题:
(1)SNN结构单一、扩展性较差的问题
目前的协同神经网络结构固定且较为简单,同类别原型模式的引入会增大识别错误率,且对新类别支持性较差,难以进一步提升网络的性能。
(2)SNN缺少原型模式学习方法的问题
SNN没有有效的原型模式学习方法,原型模式对于该类样本不具有代表性,导致识别率过低,无法发挥SNN优势。
发明内容
本发明针对现有技术的缺陷,提供了一种自组织协同神经网络模型学习及构建方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种自组织协同神经网络模型学习方法,包括以下步骤:
步骤1,数据预处理,包括以下子步骤:
步骤11,输入样本零均值化:对输入样本x完成零均值化处理
其中N为输入样本的维数。
步骤12,输入样本归一化:对输入样本x完成归一化处理
x=||x||2
一般采用二范数完成输入样本的归一化。
步骤2,网络初始化,包括以下子步骤:
步骤21,随机生成原型模式权值:由于原型模式的权值未知,一般采取随机数的方式初始化原型模式权值。
步骤22,原型模式权值零均值化:对各个原型模式向量pi,i=1,2,...,M完成零均值化处理
其中N为原型模式向量的维数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910875365.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:基于超网络的模型结构采样、装置以及电子设备
- 下一篇:卷积计算方法及相关设备