[发明专利]用于模式识别与分类的双层学习模型、构建方法及应用在审
申请号: | 202010991342.X | 申请日: | 2020-09-20 |
公开(公告)号: | CN112257861A | 公开(公告)日: | 2021-01-22 |
发明(设计)人: | 李宏;张莉;李和成;刘淑华;高卫峰 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04;G06N3/00;G06K9/62;G06F17/16 |
代理公司: | 西安长和专利代理有限公司 61227 | 代理人: | 何畏 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 模式识别 分类 双层 学习 模型 构建 方法 应用 | ||
1.一种用于模式识别与分类的双层学习模型,其特征在于,所述双层学习模型为:
其中W求解:
下层
其中即在测试集上错误分类的比率,用Fnc表示网络的复杂性,λ1,λ2是预设的两个权重参数,且λ1+λ2=1,H为网络结构,W为网络连接权值向量,Θ为网络结构搜索空间,Ω权值向量搜索空间,I为0-1整数集,R为实数集,p为训练集模式指标,P为训练集样本个数,Op为第p个样本的网络输出,Tp为第p个样本的目标输出,Fte为测试集误差率,n为网络结构编码向量的维数,m为网络参数编码向量的维数,FU(H,W)为上层目标函数,fL(H,W)为下层目标函数,由于网络泛化性能比网络结构复杂度更重要,所以要求λ1>λ2>0,由于上层决策变量是整数向量,下层决策变量是实数向量,所以模型属于离散双层优化问题。
2.如权利要求1所述的双层学习模型,其特征在于,所述双层学习模型将训练过程和测试过程整合到同一个框架中,达到边训练,边测试,选择测试误差率最小,同时网络复杂度较小的神经网络为最佳神经网络;在双层学习模型,上层决策变量是关于网络结构的向量,上层目标是网络对测试集的误差和网络的复杂度同时最小;下层决策变量是网络参数,下层目标是训练集的均方误差最小。
3.一种如权利要求1所述用于模式识别与分类的双层学习模型的构建方法,其特征在于,所述双层学习模型的构建方法包括以下步骤:
第一步,构建上层决策者,上层决策者是网络结构编码,上层目标函数是网络复杂度和测试集上的分类误差率的加权组合;
第二步,构建下层决策者,下层决策者是网络参数(连接权值和偏置)编码,下层目标函数是训练集上的均方误差。
4.如权利要求3所述的双层学习模型的构建方法,其特征在于,所述双层学习模型的构建方法的决策过程是:上层给下层提供一个网络结构,下层在此结构下,作用于训练集上寻求一组最优网络权值,使得网络的均方误差最小,将获得的网络权值反馈给上层,上层利用该网络作用于测试集,获得测试误差率;上层在给定空间中不断搜索网络结构,提供给下层,下层在其空间中优化权值反馈给上层,通过上层和下层反复博弈,直到上层找到最佳神经网络。
5.如权利要求3所述的双层学习模型的构建方法,其特征在于,所述双层学习模型的构建方法的上层编码策略为:对单隐层神经网络中隐层神经元激活状态进行0-1二进制编码,若隐层神经元未激活用0表示,隐层神经元激活用1表示,隐层激活的神经元与所有输入和输出神经元都连接。
所述双层学习模型的构建方法的上层目标函数由网络复杂度和测试集上的分类误差率的加权组合而成。
6.如权利要求3所述的双层学习模型的构建方法,其特征在于,所述双层学习模型的构建方法的下层编码策略是:对网络参数,包括输入层神经元与隐层神经元之间的连接权值,隐层神经元与输出神经元之间的连接权值,以及隐层神经元、输出神经元的偏置,采用实数向量编码;
所述双层学习模型的构建方法的下层目标函数是训练集上的均方误差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010991342.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:非甲烷总烃分析方法
- 下一篇:一种两步制备难熔金属硼化物的方法