[发明专利]一种核整体学习划分的优化神经网络分类器的方法在审
申请号: | 201910049436.2 | 申请日: | 2019-01-18 |
公开(公告)号: | CN109784409A | 公开(公告)日: | 2019-05-21 |
发明(设计)人: | 闻辉;黄金火;严涛;徐航;陈德礼;车艳;李同彬;林元模 | 申请(专利权)人: | 莆田学院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 成都顶峰专利事务所(普通合伙) 51224 | 代理人: | 陈夏 |
地址: | 351100 福建省莆*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类器 优化神经网络 模式矢量 样本数据 原始样本 整体学习 原始训练样本 输出分类器 概率分布 权值参数 失效问题 学习算法 样本集合 样本空间 有效区域 鲁棒性 样本集 保留 覆盖 维数 子集 样本 概率 优化 学习 | ||
本发明公开了一种核整体学习划分的优化神经网络分类器的方法,包括以下步骤:(1)建立RBF核完成对原始训练样本空间的优化覆盖,并生成新的RBF核个数及参数;(2)以每个RBF核的中心及核宽为参数,在各RBF核所覆盖的有效区域内建立与原始样本相近似的概率分布来生成新的样本数据;(3)判断新生成的样本数据是否保留,最终构成一个新的模式矢量子集;(4)将原始样本和最终保留的所有模式矢量一起构成新的样本集合,以训练输出分类器权值参数。本发明改善了当样本集规模过小或样本空间维数过高导致的学习算法失效问题;从概率上而言,核整体划分的方式可以使得学习后的分类器边界更加远离原来的样本,使得分类器的鲁棒性和泛化能力得到加强。
技术领域
本发明属于模式识别领域,具体涉及一种核整体学习划分的优化神经网络分类器的方法。
背景技术
在模式识别领域,集合分类是常见的分类任务,它在文本分类、说话人语音识别、图像识别等领域具有广泛的应用。以图像识别为例,在基于图像集合的分类任务中,每个图像集合是由一类具有一定数量相似特征的图像数据组成。由于使用了图像数据变化的相关信息,它可以有效探索由于实际条件变化而引起的图像变化。
在当前已有的各种神经网络分类器当中,都是基于对单一模式矢量的学习分类。然而当训练样本集规模过小或分类数据集维数过高时,会使样本集的空间分布相对过于稀疏,由于网络分类器的分类面本质上是由训练样本的概率分布决定的,训练样本集规模过小或分类数据集维数过高会使得最终分类面的误差相对较大,因此导致已有的神经网络分类器分类性能不同程度降低。
发明内容
为了改善现有技术存在的上述问题,本发明目的在于提供一种核整体学习划分的优化神经网络分类器的方法。
本发明所采用的技术方案为:
一种核整体学习划分的优化神经网络分类器的方法,包括以下步骤:
(1)建立RBF核完成对原始训练样本空间的优化覆盖,并生成新的RBF核个数及参数;
(2)以每个RBF核的中心及核宽为参数,在各RBF核所覆盖的有效区域内建立与原始样本相近似的概率分布来生成新的样本数据;
(3)判断新生成的样本数据是否保留,最终构成一个新的模式矢量子集;
(4)将原始样本和最终保留的所有模式矢量一起构成新的样本集合,以训练输出分类器权值参数。
进一步地,所述步骤(1)中采用势函数对原始训练样本空间的优化覆盖;
设x,y分别代表模式空间的两个向量,γ(x,y)代表由这两个向量建立的势函数;势函数需要满足以下几个条件:
当x=y时,γ(x,y)获得最大值;
当x与y之间的距离趋于无穷大时,γ(x,y)的值趋于零;
γ(x,y)是连续光滑函数,随着x与y之间的距离的增加,γ(x,y)的值单调下降;
④若γ(x1,y1)=γ(x2,y1),则向量x1和x2对y1具有相同的相似性程度。
进一步地,所述势函数为:
γ(x,y)=exp(-T||x-y||2)
其中,T是常数,用来控制势函数的衰减速度。
进一步地,所述步骤(2)中采用一种面向中心的负类样本作用力模型,以进一步对完成每一个RBF网络隐节点中心及核宽参数的自适应优化调整。
进一步地,所述负样本作用力模型需要满足以下条件:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于莆田学院,未经莆田学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910049436.2/2.html,转载请声明来源钻瓜专利网。