[发明专利]一种计算机智能识别的深层神经网络结构设计方法有效
申请号: | 201610100209.4 | 申请日: | 2016-02-23 |
公开(公告)号: | CN105787557B | 公开(公告)日: | 2019-04-19 |
发明(设计)人: | 李玉鑑;杨红丽;时康凯 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 沈波 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种计算机智能识别的深层神经网络结构设计方法,对于图像而言,由于相邻像素间的相关性,这就使得可以使用更少的数据表示同一个事物,降低数据维度。选定网络初始层数;输入层神经元个数为训练样本维数;是否需要归一化;训练样本做主成分分析确定第一个隐含层神经元个数;确定第二层隐含层神经元个数;训练网络,测评网络结构;结果不理想时增加一个隐含层,将上一层降维后的矩阵经过非线性变换函数作用后做主成分分析确定该隐含层神经元个数并训练网络,重复试验,直到取得良好效果。本发明解决了深层神经网络中结构设计的随机性、盲目性和不稳定性,大大提高了深层神经网络训练的速度和学习能力,为深层神经网络的发展奠定基础。 | ||
搜索关键词: | 一种 计算机 智能 识别 深层 神经网络 结构设计 方法 | ||
【主权项】:
1.一种计算机智能识别的深层神经网络结构设计方法,主成分分析是一种能够极大提升无监督特征学习速度的数据降维算法;对于图像而言,由于相邻像素间的相关性,主成分分析算法可以将输入矩阵转换为一个维数低很多的近似矩阵,而且误差非常小;这就使得可以使用更少的数据表示同一个事物,降低数据维度;同时可以最大限度的保留原有数据的内部结构和分布;深度学习的基本思想就是假设有一个系统S,它有n层即S1,…Sn,它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如果输出O等于输入I,即输入I经过这个系统变化之后保持不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息即输入I的另外一种表示;所以在深层神经网络中,通过调整系统中参数,使得它的输出O仍然是输入I,那么就可以自动地获取得到输入I的一系列层次特征,即S1,…,Sn;通过这种方式,就可以实现对输入信息进行分级表达了;所以,对图片和语音数据多次进行主成分分析的思想和深度学习的思想在一定程度上是吻合的,每次对数据进行主成分分析后得到的新的矩阵和深层神经网络中每层神经元都是对输入数据的不同表示形式,两者有很大的相似性;本方法正是基于此原理提出了一种应用在计算机视觉和语音识别领域中深层神经网络的结构设计方法;其特征在于:该方法包括以下步骤,步骤1,人工选定计算机智能识别的深层神经网络初始层数L为4,即包括输入层、第一个隐含层、第二个隐含层和输出层,所述智能识别包括计算机视觉识别和语音识别;步骤2,计算机视觉识别的图片或计算机语音识别的语音作为训练样本集,将训练样本集转化为矩阵的形式即Y0={Y01,Y02,...,Y0p},其中Y01,Y02,...,Y0p分别代表一个样本,共p个样本,p取正整数,每个样本维数为d;步骤3,定义输入层神经元个数为训练样本的维数d;步骤4,如果训练样本集是图片且取值范围在(0,255)之间,需要将训练样本进行归一化操作,否则直接进行下一步操作;如果训练样本集是语音,则直接进行下一步操作;步骤5,训练样本集Y0为第一个隐含层的输入矩阵,通过对输入矩阵Y0做主成分分析确定第一个隐含层神经元的个数HN1,主成分分析算法的具体计算过程如下:S5.1输入矩阵表示为Yi={Yi1,Yi2,...,Yip},0≤i≤L‑1,其中Yi代表不同隐含层的输入矩阵,Yi的维数为变量n;S5.2输入矩阵去均值化:
其中
S5.3计算输入矩阵Yi的协方差矩阵:
1≤k≤p,其中Yi={Yi1,Yi2,...,Yip},Yik∈Yi,T为矩阵的转置操作;S5.4计算Yi的协方差矩阵的特征根和特征向量:求得特征根λi1,λi2,...,λin及相应的单位化特征向量ξi1,ξi2,...,ξin;S5.5根据各个特征根即主成分累计贡献率的大小选取前m个最大特征根,这里贡献率就是指某个特征根占全部特征根合计的比重,即
λij代表矩阵Yi的协方差矩阵求得的各个特征根,贡献率越大说明该主成分所包含的原始数据的信息越强,要求累计贡献率达到85%—100%以保证原始数据的绝大多数信息,选择的m个最大特征根对应的单位化特征向量ξi1,ξi2,...,ξim生成投影矩阵:Mi=(ξi1,ξi2,...,ξim)T,Mi∈Rm×n,其中ξi1,ξi2,...,ξim代表Yi的协方差矩阵的前m个最大特征向量;S5.6对输入矩阵Yi进行投影得到降维后的矩阵Yi*,矩阵的维数m即为第(i+1)层隐含层神经元的个数HNi+1=m:Yi*=Mi×Yi;步骤6,降维后的矩阵
经过非线性变换函数f作用产生第一层隐含层的输出矩阵Y1,f为sigmoid函数或tanh函数或ReLu函数:
步骤7,第二个隐含层输入矩阵即为第一个隐含层的输出矩阵Y1,通过对输入矩阵Y1做主成分分析确定第二个隐含层神经元的个数HN2;步骤8,输出层神经元的个数为标记类的个数;步骤9,利用图像或语音的训练数据对深层神经网络进行训练,对网络结构进行测评;步骤10,如果测评结果不理想,调整深层神经网络的层数L=L+1,4≤L≤1000,增加一层隐含层,第i层降维后的矩阵Yi*经过非线性变换函数f作用产生第(i+1)层隐含层的输入矩阵Yi+1,公式表达为Yi+1=f(Yi*),2≤i≤L‑2,通过对输入矩阵Yi+1做主成分分析即可确定第(i+1)层隐含层神经元的个数HNi;步骤11,重复步骤9和10,不断调整网络层数并训练深层网络,直到取得良好的实验效果,确定深层神经网络的结构为输入层、第一个隐含层、第二个隐含层...、第(L‑2)个隐含层、输出层。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610100209.4/,转载请声明来源钻瓜专利网。
- 上一篇:一种巡检系统
- 下一篇:四维码编码方法及系统