[发明专利]一种向量化降维方法有效
申请号: | 201510695870.X | 申请日: | 2015-10-23 |
公开(公告)号: | CN105389343B | 公开(公告)日: | 2019-08-16 |
发明(设计)人: | 孙艳丰;句福娇;胡永利;尹宝才 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06F16/28 | 分类号: | G06F16/28 |
代理公司: | 北京中北知识产权代理有限公司 11253 | 代理人: | 冯梦洪 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 量化 方法 | ||
本发明公开了一种向量化降维方法,其识别率大大提高。所述方法包括步骤:(1)根据公式(1)的向量化降维模型,将张量数据表示成若干个基张量的线性组合;(2)将张量数据直接降维到一个向量数据,将样本Yi重新写成投影基底Wk(k=1,...,K)的线性组合,投影基底Wk与样本Yi有相同的维度,得到2D数据的向量化的降维;(3)假设噪声满足矩阵高斯分布Ei的每个元素满足正态分布
技术领域
本发明属于数据降维的技术领域,具体地涉及一种向量化降维方法。
背景技术
多模态数据和高维数据在现代计算机视觉的研究中随处可见。数据的高维度不仅增加了算法的复杂性和存储的开销,而且也降低了算法在实际应用中的广泛性。然而,高维数据往往是均匀分布在一个低维空间或流行空间上。所以,找到高维观测数据在低维空间中的一种映射关系已成为机器学习研究的一个具有挑战性的问题。在过去的几十年中,关于数据降维的算法已取得很大进展。
主成分分析(Principal Component Analysis,PCA)是一种广泛应用于模式识别和机器学习的降维方法。众所周知,PCA方法是一种向量化的降维方法,它可以将向量数据表示成一组基向量的线性组合形式。由于基向量的正交性,因此降维后的系数可以用来代表原始的向量数据。然而,今天的数据一般拥有更复杂的结构,例如,图像可以看做是2D数据。在2D数据上应用PCA方法,需要首先将数据向量化,而向量化不仅会产生维度灾难的问题,而且还会破坏高维数据的内在结构,从而忽略高维数据中的空间信息。与PCA不同的是,2DPCA算法是直接在2D数据上降维,即分别对行和列方向降维,降维后的系数仍是2D数据。
对于高阶张量数据,一种典型的降维方法是Tucker分解。Wang and Ahuja将高维的数据看成是张量,而不是矩阵或向量,并且提出了一种秩为1的分解算法(TROD),这种分解方式是将张量分解成一组秩为1的张量和的形式。这种算法是对张量的每个维度降维,并且是通过对一个张量数据降维得到。
高阶张量的降维目前是一个具有挑战性的问题。经典的方法都是将张量数据向量化或是利用Tucker分解对高维数据降维,这样会得到较低阶张量或破坏原始张量数据的内部结构,从而识别率较低。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种向量化降维方法,其识别率大大提高。
本发明的技术解决方案是:这种向量化降维方法,所述方法包括以下步骤:
(1)根据公式(1)的向量化降维模型,将张量数据表示成若干个基张量的线性组合
其中给定样本集包含M个独立同分布的样本,这些样本可以组成一个三阶张量此张量的每一面是一个样本YiK表示降维后的维度;
(2)将张量数据直接降维到一个向量数据
公式(2)中表示hi的第k个元素,Wk是张量的第k个面,将样本Yi重新写成投影基底Wk(k=1,...,K)的线性组合,投影基底Wk与样本Yi.有相同的维度,得到2D数据的向量化的降维;
(3)假设噪声满足矩阵高斯分布Ei的每个元素满足正态分布为了应用以上模型,根据公式(3)给定隐变量一个先验分布:
假设满足Gamma分布:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510695870.X/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用于展现交互界面的方法和装置
- 下一篇:一种数据库访问工具、系统和方法