[发明专利]多源域自适应的人脸识别方法有效
申请号: | 201810866120.8 | 申请日: | 2018-08-01 |
公开(公告)号: | CN109034080B | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 徐智;韩晗;伊海洋 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多源域 自适应 识别 方法 | ||
本发明属于人工智能技术领域,本发明所涉及的域自适应方法也属于迁移学习领域的一个重要分支,公开了一种多源域自适应人脸识别的方法。提出通过学习多个源域和单个目标域的公共子空间的方法,应用于人脸识别问题。解决了对于源域和目标域不同分布的数据,且目标域数据没有或者具有少量的标签,人脸识别问题在源域上学习的分类器在目标域上做识别效果差的问题。方法通过学习多个源域和单目标域的样本,得到一个公共的子空间,在公共子空间中通过将源域转化为目标域的线性表示数据,并将目标化的源域数据投到高维空间中,使其在高维空间中构造线性最优超平面,并学习到一个核分类器,再对测试样本进行识别分类,获得了有益的效果。
技术领域
本发明属于人工智能技术领域,涉及一种人脸识别的方法,特别是涉及域自适应人脸识别方法。
背景技术
现在一些传统的机器学习方法例如Fisher线性判别分析、支持向量机、BP网络等都在人脸识别领域有一定的应用。这些方法大致步骤为:首先对带标签的源域样本进行训练,学习到一个较好的分类器,再对和源域样本具有相同分布的目标域样本进行测试,得出人脸识别结果。然而,在真实的应用中,训练数据和测试数据往往不满足同一分布这一条件,在已有办法的训练过程中,往往对训练样本有着很好的性能,但在测试的时候,由于是不同分布的测试样本数据,分类器产生退化现象,效果大打折扣。一个较好的方案是通过学习和测试数据有着相同分布的样本,但是对于训练样本,源域是带有大量的监督信息,而与测试数据有相同分布的目标域带有少量甚至不带有监督信息,没有足够的样本数据训练分类器,这就成了一个难以解决的问题。之后,又有一些方法通过学习源域和目标域共同特征进行训练分类器,但是忽视了目标域独有的那些对分类任务有益的特征,也限制了一个较好的效果。在本专利中,通过对多个源域和单个目标域数据学习,得到一个公共子空间,在公共子空间中能够使源域数据分布逼近目标域数据分布,得到较好分类器。
发明内容
上述问题可以主要总结为三点:(1)源域和目标域数据不是同分布,在源域上学习的分类器无法在目标域中得到较好的应用;(2)目标域的数据往往带有少量甚至不带有监督信息,因此无法直接在目标域上直接学习分类器;(3)通过学习源域和目标域的公共特征得到分类器,会忽视目标域自己独有的特征信息。
迁移学习中的域自适应方法能够较好地解决源域与目标域不同的问题,本发明通过对大量带有标签的多个源域数据和不带有标签的目标域数据共同学习,得到一个公共子空间,在公共子空间中完成将源域表示成目标域数据的线性组合,使源域数据的分布接近目标域的分布,并且保留了目标域数据本身的特性。再用这些新的样本数据学习一个分类器,对测试样本进行识别。在此基础上,由于新的样本数据并不一定具有线性结构,因此通过将样本进行非线性变化投影到一个高维的空间中,使其在高维空间具有线性结构,并在高维空间能够构造线性最优超平面,学习到一个核分类器,对样本数据进行测试。
为了克服上述现有技术的不足,本发明提供了一种多源域自适应方法的方案。具体解决方案如下。
1. 数据定义。
源域样本数据定义为,v是源域的数量, 是第i个源域Xi中第j个样本特征表示,维度是di,ni是第i个源域上样本数量;源域样本的标签为,其中为第i个源域中第j个样本的标签。
目标域样本数据定义为,其中表示目标域中第j个样本特征表示,维度为,是目标域的样本数量。
2.公共子空间学习。
公共子空间的学习需要满足两点要求:源域数据和目标域数据能够很好地在同一子空间中相互表示;同时,源域和目标域的数据保留自己的结构。这两点可以通过对稀疏重建和总体相关性进行约束来达到最优效果。因为每个域都具有差异性,故投影到公共子空间中,要为每个域学习一个投影矩阵,定义为W1, W2,,···Wv,Wv+1,源域样本数据在投影空间的表示为,目标域样本数据在投影空间的表示为,。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810866120.8/2.html,转载请声明来源钻瓜专利网。