[发明专利]一种基于多视图学习的协作表达分类方法在审
申请号: | 201910884215.7 | 申请日: | 2019-09-19 |
公开(公告)号: | CN110766049A | 公开(公告)日: | 2020-02-07 |
发明(设计)人: | 陶莹珊;赵菲;赖来利 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 44102 广州粤高专利商标代理有限公司 | 代理人: | 林丽明 |
地址: | 511404 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 维度 分类目标 视图数据 映射矩阵 类标 分类 一致性原理 分类结果 分类效果 视图信息 数学模型 投影变化 高维 协作 投影 样本 学习 | ||
1.一种基于多视图学习的协作表达分类方法,其特征在于,包括以下步骤:
S1.根据多视图信息的待分类目标X1,X2...Xv,通过分别固定超参数λ1、λ2,设置超函数的收敛范围,利用迭代法,求出待分类目标所对应的映射矩阵s1,s2...sv,v∈N;
S2.将具有多视图信息的待分类目标X分组放进数学模型中,根据待分类目标X样本的原始高维特征进行投影变化,每组待分类目标包括分为不同维度X1,X2...Xv,X1,X2...Xv经过该维度所在的映射矩阵s1,s2...sv直接得出该维度的类标y1,y2...yv中;
S3.观察各组每一个维度的类标信息y1,y2...yv,根据少数服从多数原则,输出各组出现次数最多的类标信息并进行求平均处理,输出类标信息y。
2.根据权利要求1所述的基于多视图学习的协作表达分类方法,其特征在于,所述的步骤S2还包括以下步骤:
S21.对数据进行随机采样分组,得出若干组训练样本;
S22.对应每个训练样本中不同维度的待分类目标X1,X2...Xv的映射矩阵s1,s2...sv进行第一次约束,其约束条件如下:
其中,sv表示的是一组训练样本里第v个视图的映射;
S23.对应每个不同维度的待分类目标X1,X2...Xv的映射矩阵s1,s2...sv进行第二次约束,其约束条件如下:
其中,为同一组映射里不同视图的映射均值;
S24.所述的数学模型还包括损失函数,将若干组训练样本中的待分类目标X放入损失函数中,得出该维度的类标y1,y2...yv,其公式如下:
其中,X表示的是所有的带有全部视图的训练样本,Xv表示的是每一个训练样本里第v个视图的样本,yv表示每一个X对应的类标y里第v个视图的类标。
3.根据权利要求2所述的基于多视图学习的协作表达分类方法,其特征在于,所述的的计算公式如下:
其中,sv表示的是同一组对应的训练样本里第v个视图的映射,为同一组映射里不同视图的映射均值。
4.根据权利要求2所述的基于多视图学习的协作表达分类方法,其特征在于,所述的数学模型公式如下:
其中,X表示的是所有的带有全部视图的训练样本,Xv表示的是一组训练样本里第v个视图的样本,sv表示的是同一组对应的训练样本里第v个视图的映射,yv表示每一个X对应的类标y里第v个视图的类标。
5.根据权利要求4所述的基于多视图学习的协作表达分类方法,其特征在于,所述的S3包括以下步骤:
S31.根据步骤S2所得各组数据的不同维度的类标信息y1,y2...yv,输出出现次数最多的类标信息;
S32.根据S31输出的各组类标信息进行平均值处理,输出分类结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910884215.7/1.html,转载请声明来源钻瓜专利网。