[发明专利]一种基于神经网络算法的叶根应力分析方法有效

专利信息
申请号: 201610883614.8 申请日: 2016-10-10
公开(公告)号: CN106503312B 公开(公告)日: 2019-11-08
发明(设计)人: 张荻;郭鼎;刘天源;谢永慧 申请(专利权)人: 西安交通大学
主分类号: G06F17/50 分类号: G06F17/50
代理公司: 西安通大专利代理有限责任公司 61200 代理人: 陆万寿
地址: 710049 陕*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开一种基于神经网络算法的叶根应力分析方法,包括:第一步,使用快速均匀序列采样法来获得神经网络学习的叶根模型样本点集;第二步,根据第一步获得的样本点集完成叶根和对应轮缘的参数化建模,并使用有限元软件完成各个叶根‑轮缘模型的强度计算,获得各个样本点对应的响应;第三步,使用主成分分析法降低样本点的维数,简化神经网络的输入向量,提高神经网络的泛化能力;第四步,初始化神经元模型,确定隐藏层的神经元个数以及神经网络的输入/输出向量;第五步,利用参数化叶根的采样数据训练神经网络直至满足停止准则,然后用测试样本验证模型的准确性和泛化能力。该方法所建立的模型具有计算速度快、计算精度高的优点。
搜索关键词: 一种 基于 神经网络 算法 应力 分析 方法
【主权项】:
1.一种基于神经网络算法的叶根应力分析方法,其特征在于,包括以下步骤:第一步,使用空间缩减快速均匀序列采样法获得神经网络学习的叶根模型样本点集;第二步,根据第一步获得的样本点集完成叶根和对应轮缘的参数化建模,并使用有限元方法完成各个叶根‑轮缘模型的强度计算,获得各个样本点对应的响应;第三步,使用主成分分析法降低样本点的维数,简化神经网络的输入向量,提高神经网络的泛化能力;第四步,初始化神经元模型,确定隐藏层的神经元个数以及神经网络的输入/输出向量;第五步,训练神经网络直至满足停止准则,然后用测试样本验证模型的准确性和泛化能力;第四步具体包括:首先要初始化神经网络模型的参数,并确定隐藏层的神经元个数;使用以下方法确定隐藏层神经元个数:公式1:公式2:公式3:N1=log2n其中N1为隐藏层神经元的个数;n为输入向量维数,即经过主成分分析法提取出的叶根形状参数化的个数;m为响应向量维数,即叶根应力计算结果包含的成分个数;a为[1,10]之间的常数;根据以上3个公式可以分别计算出3个不同的N1,并以其中最大值为上限,最小值为下限,确定出隐藏层神经元个数的取值范围,即n1≤N1≤n2,n1为取值下限,n2为取值上限;取N1=n1,根据训练样本计算求解此时的人工神经网络模型,并获得此时的均方误差M1,即其中p是训练样本的总体数目,y'ij是网络的期望输出,yij是网络的实际输出;再取N1=n2,获得此时的均方误差M2;比较两次计算的均方误差以及收敛速度,并通过二分法来缩小隐藏层神经元个数的取值范围,最终当n2=n1+1时停止搜索,并根据此时的比较结果确定N1的取值;隐藏层和输出层的激活函数均选取sigmoid函数,即当网络训练过程中,如果均方误差在权值更新后增加了,且超过设置的增长值,则更新被取消,学习速率乘以一个因子ρ,0.1<ρ<1,通过随机数产生;如果均方误差在权值更新后减少,则权值更新被接受,而且学习速率乘以一个因子η,1<η<10,通过随机数产生;如果均方误差增长小于设置的增长值,则权值更新被接受,学习速率保持不变。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610883614.8/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top