[发明专利]一种用于在线学习的样本集训练方法在审
申请号: | 201410069210.6 | 申请日: | 2014-02-27 |
公开(公告)号: | CN103886340A | 公开(公告)日: | 2014-06-25 |
发明(设计)人: | 沈海斌;卞桂龙 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06K9/66 | 分类号: | G06K9/66;G06F15/18 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 杜军 |
地址: | 310027 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种用于在线学习的样本集训练方法。该方法将初始样本集划分成若干个样本子集,再将每个样本子集根据权重分布随机划分成训练集和测试集。对于训练集,先求取壳向量集,并将其作为新的训练集来进行支持向量机的训练。若生成的支持向量机不满足收敛条件,则丢弃该支持向量机并重新训练。最后将所有支持向量机利用权重投票方式产生一个集成的支持向量机。本发明在样本集上引入了一定的随机性,从而间接地提高了支持向量机的多样性,使得集成后的支持向量机能克服自身“灾难性遗忘”缺陷,起到支持在线学习的目的。同时在不影响分类精度的情况下,还能大幅减少支持向量机的训练时间。 | ||
搜索关键词: | 一种 用于 在线 学习 样本 集训 方法 | ||
【主权项】:
1.一种用于在线学习的样本集训练方法,其特征在于该方法包括以下步骤:步骤(1)准备一个初始样本集S,并将其分成K个样本子集Sk,其中k=1,2,…,K;每个样本子集Sk有m个样本(xi,yi),i=1,2,…,m,并且都需要进行Tk次迭代;步骤(2)针对每个样本子集Sk,按照下列步骤依次进行Tk次迭代:步骤(2.1)对样本子集Sk的样本权值进行初始化,其中权值w1(i)=D1(i)=1/m;步骤(2.2)设t的初始值为1,执行完下列步骤后t值自加一,直至t值大于Tk;步骤(2.2.1)对样本权值wt进行归一化,建立分布步骤(2.2.2)根据分布Dt随机选择训练集TRt和测试集TEt;利用Qhull算法求取训练集TRt的壳向量集其中并将其作为新的训练集;步骤(2.2.3)在训练集上训练支持向量机,得到支持向量机ht:X→Y;步骤(2.2.4)计算支持向量机ht在训练集TRt和测试集TEt上的错误率:ϵ t = Σ i : h t ( x i ) ≠ y i D i ( i ) on TR t + TE t ; ]]> 如果εt>1/2,则令t=t-1,删除支持向量机ht,跳转到步骤(2.2.2);否则计算正规化错误率:βt=εt/(1-εt);步骤(2.2.5)通过权重投票方式产生集成的支持向量机Ht:H t = arg max y ∈ Y Σ t : h t ( x ) = y log ( 1 / β t ) ; ]]> 并计算集成误差E t = Σ i : H t ( x i ) ≠ y i D t ( i ) = Σ i = 1 m D t ( i ) [ | H t ( x i ) ≠ y i | ] ; ]]> 如果Et>1/2,删除此集成的支持向量机Ht,并令t=t-1,跳转到步骤(2.2.2);步骤(2.2.6)设集成正规化错误率Bt=Et/(1-Et),修改样本子集中样本的权值:步骤(3)将所有集成的支持向量机Ht采用权重投票的方式产生最终输出:H final = arg max y ∈ Y Σ k = 1 K Σ t : H t ( x ) = y log ( 1 β t ) . ]]>
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410069210.6/,转载请声明来源钻瓜专利网。
- 上一篇:基于IGMPv3的隐藏信息传输方法
- 下一篇:监控摄像头