[发明专利]一种核整体学习划分的优化神经网络分类器的方法在审
申请号: | 201910049436.2 | 申请日: | 2019-01-18 |
公开(公告)号: | CN109784409A | 公开(公告)日: | 2019-05-21 |
发明(设计)人: | 闻辉;黄金火;严涛;徐航;陈德礼;车艳;李同彬;林元模 | 申请(专利权)人: | 莆田学院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 成都顶峰专利事务所(普通合伙) 51224 | 代理人: | 陈夏 |
地址: | 351100 福建省莆*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类器 优化神经网络 模式矢量 样本数据 原始样本 整体学习 原始训练样本 输出分类器 概率分布 权值参数 失效问题 学习算法 样本集合 样本空间 有效区域 鲁棒性 样本集 保留 覆盖 维数 子集 样本 概率 优化 学习 | ||
1.一种核整体学习划分的优化神经网络分类器的方法,其特征在于:包括以下步骤:
(1)建立RBF核完成对原始训练样本空间的优化覆盖,并生成新的RBF核个数及参数;
(2)以每个RBF核的中心及核宽为参数,在各RBF核所覆盖的有效区域内建立与原始样本相近似的概率分布来生成新的样本数据;
(3)判断新生成的样本数据是否保留,最终构成一个新的模式矢量子集;
(4)将原始样本和最终保留的所有模式矢量一起构成新的样本集合,以训练输出分类器权值参数。
2.根据权利要求1所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:所述步骤(1)中采用势函数对原始训练样本空间的优化覆盖;
设x,y分别代表模式空间的两个向量,γ(x,y)代表由这两个向量建立的势函数;势函数满足以下几个条件:
当x=y时,γ(x,y)获得最大值;
当x与y之间的距离趋于无穷大时,γ(x,y)的值趋于零;
γ(x,y)是连续光滑函数,随着x与y之间的距离的增加,γ(x,y)的值单调下降;
④若γ(x1,y1)=γ(x2,y1),则向量x1和x2对y1具有相同的相似性程度。
3.根据权利要求2所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:所述势函数为:
γ(x,y)=exp(-T||x-y||2)
其中,T是常数,用来控制势函数的衰减速度。
4.根据权利要求1所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:所述步骤(2)中采用一种面向中心的负类样本作用力模型,以进一步对完成每一个RBF网络隐节点中心及核宽参数的自适应优化调整。
5.根据权利要求4所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:所述负样本作用力模型满足以下条件:
①当初始中心被确定,给定初始核宽参数,只有在当前RBF网络隐节点所覆盖区域内,该负类样本作用力才存在;
②当中心向量调整到一个合适的位置时,负类样本作用力自动消失。
6.根据权利要求1所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:所述步骤(3)采用以各RBF子核为研究对象,在各子核内部以先随机生成模式类别样本再优化筛选的方式来判断新生成的样本数据是否保留。
7.根据权利要求6所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:初始生成模式样本的概率分布与原始样本的概率分布近似一致;且,在样本的筛选过程中,生成样本被保留的概率与原始样本所在区域的密度成正比。
8.根据权利要求7所述的一种核整体学习划分的优化神经网络分类器的方法,其特征在于:若生成样本为混叠区域样本,需进行二次优化筛选。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于莆田学院,未经莆田学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910049436.2/1.html,转载请声明来源钻瓜专利网。