[发明专利]机器学习中基于集成特征选择的不平衡数据处理方法在审
申请号: | 201810620169.5 | 申请日: | 2018-06-05 |
公开(公告)号: | CN110569863A | 公开(公告)日: | 2019-12-13 |
发明(设计)人: | 帅仁俊;郭汉;李文煜 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 211816 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器学习算法 特征选择算法 分类模型 机器学习 集成特征 特征子集 样本构造 数据处理 非平衡 过采样 度量 构建 子集 样本 合成 筛选 分类 研究 | ||
1.机器学习中基于集成特征选择的不平衡数据处理方法,其特征在于,所述方法包括以下步骤:
步骤一:首先获取数据,对数据进行整理并分析原始数据集种的初始特征,计算出不同的特征值,得到特征集合,进入步骤二;
步骤二:接着对数据进行进一步处理,设计一种集成特征选择方法对所得到的特征集合进行特征选择,寻找最优特征子集来去除冗余特征并且解决数据不平衡问题,提高分类效率,转入步骤三;
步骤三:最后将得到的最优特征子集作为输入,采用机器学习分类算法进行训练,构建分类器模型,使用正类正确率(acc+)、负类准确率(acc-)作为性能评价指标。
2.根据权利要求1所述的基于集成特征选择的的不平衡数据处理方法,其特征在于,步骤二中所述集成特征选择方法包括以下步骤:
步骤一:首先采用Filter中的信息增益方法描述特征相关性,进入步骤二;
步骤二:然后采用基于Bagging的特征选择方法进行自助采样,先将少数类全部采样出来,再采样出与少数类样本数量差不多的多数类样本,将这两个样本集作为一个数据子集,进行多次循环采样,将尽可能多的少数类样本参与数据子集中,进入步骤三;
步骤三:接着结合合成少数类过采样技术(Synthetic minority oversamplingtechnique,SMOTE)对少数类样本进行一定数量的增加,再利用与之前同样的方法采样出与少数类样本数量的多数类样本,将采样出的多数类样本与过采样的少数类样本构造为多个袋装子集,进入步骤四;
步骤四:利用基于相关性度量的特征选择算法对每个袋装子集中筛选出特征子集,最后设置阈值对多个新的特征合集进行处理构造出特征合集。
3.根据权利要求1所述的机器学习中基于集成特征选择的不平衡数据处理方法,其特征在于,步骤三所指评价指标,其计算方式为:
4.根据权利要求1所述的机器学习中基于集成特征选择的不平衡数据处理方法,其特征在于,步骤四中的相关性度量算法,其计算方式为:
O(a,b)=H(a)-H(a|b)
若O(a,b)=0,则a与b无相关性;O(a,b)的值越大,则a与b相关性越大。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810620169.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:采用灰度化技术的分别方法
- 下一篇:基于GAN网络的车损图像生成方法和装置