[发明专利]一种自组织协同神经网络模型学习及构建方法在审
申请号: | 201910875365.1 | 申请日: | 2019-09-17 |
公开(公告)号: | CN110580521A | 公开(公告)日: | 2019-12-17 |
发明(设计)人: | 李海峰;王子豪;马琳;丰上;徐聪;李洪伟;薄洪健;陈婧;孙聪珊 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 51241 成都方圆聿联专利代理事务所(普通合伙) | 代理人: | 李鹏 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 序参量 原型模式 模式矩阵 构建 协同神经网络 矩阵 数据预处理 网络初始化 模式计算 模型学习 输入样本 网络模型 相似程度 扩展性 层结合 输出层 输入层 网络层 重定义 自学习 自组织 网络 调控 引入 全局 改进 学习 | ||
1.一种自组织协同神经网络模型学习方法,其特征在于,包括以下步骤:
步骤1,数据预处理,包括以下子步骤:
步骤11,输入样本零均值化:对输入样本x完成零均值化处理
其中N为输入样本的维数;
步骤12,输入样本归一化:对输入样本x完成归一化处理
x=||x||2
一般采用二范数完成输入样本的归一化;
步骤2,网络初始化,包括以下子步骤:
步骤21,随机生成原型模式权值:由于原型模式的权值未知,一般采取随机数的方式初始化原型模式权值;
步骤22,原型模式权值零均值化:对各个原型模式向量pi,i=1,2,...,M完成零均值化处理
其中N为原型模式向量的维数;
步骤23,原型模式权值归一化:对各个原型模式向量pi,i=1,2,...,M完成归一化处理
pi=||pi||2
一般同样采用二范数完成原型模式向量的归一化;
步骤3,基于SOM网络的原型模式自学习,包括以下子步骤:
步骤31,计算胜元位置:计算得出对于某个输入样本x,采用余弦距离判断输入样本与各个原型模式向量pi,i=1,2,...,N的距离,取最大值对应的原型模式向量作为胜元
k为与输入样本最为相似的原型模式的标号;
步骤32,原型模式自学习:所有原型模式进行对x的学习:
其中η(t)、a(t)为步长,T为最大迭代次数,t为当前迭代次数;
步骤33,终止条件判定:如果网络迭代次数达到T,则终止网络工作;否则重复步骤31和32。
2.一种自组织协同神经网络模型构建方法,其特征在于,SoSNN模型构建:基于原型模式、伴随模式、及序参量的重定义,及中原型模式自学习方法,具体包括以下子步骤:
步骤1.伴随模式计算,包括以下子步骤:
步骤11,对原型模式矩阵进行奇异值分解:将原型模式向量构成矩阵P,对原型模式矩阵进行奇异值分解
P=U∑VT
其中U、∑、VT为奇异值分解得到的三个矩阵;
步骤12,计算伴随模式矩阵:伴随模式矩阵P+
P+=V∑+UT
其中∑+等于∑矩阵中主对角线元素求倒数形成的矩阵;
步骤2,网络工作,在计算得出伴随模式矩阵后,原型模式矩阵作为连接输入层和序参量层的权值,伴随模式矩阵作为连接序参量层和输出层的权值,网络开始工作。
3.根据权利要求2所述的方法,其特征在于:
所述步骤2的具体子步骤如下:
步骤21,求取序参量:输入待识别样本x,首先求取样本与原型模式向量pi的内积
ξi=x·pi,i=1,2,...,M
得到序参量ξi,其中M为序参量个数或原型模式向量个数;
步骤22,序参量更新:序参量ξi在势函数V
刻画的收敛方向上完成序参量的更新;其中λ、B、C均为参数;因此,序参量ξi的更新公式为:
其中η为迭代步长,一般取
步骤23,计算网络输出:将伴随模式用序参量加权并叠加,
得到网络输出;
步骤24,终止条件判断:若某一个序参量ξi的取值为1,其余序参量取值为0,此时判断网络收敛,网络停止工作,分类结果为第i类;否则,将网络输出作为新的输入样本,重复步骤21到23,直到网络收敛。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910875365.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:基于超网络的模型结构采样、装置以及电子设备
- 下一篇:卷积计算方法及相关设备