[发明专利]分类识别方法、装置及设备有效
申请号: | 201711244226.6 | 申请日: | 2017-11-30 |
公开(公告)号: | CN109858505B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 黄悦;郑瀚;陈云舒;袁坤;刘婷婷;黄婷婷 | 申请(专利权)人: | 厦门大学;深圳市腾讯计算机系统有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/82;G06N3/0464 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 刘映东 |
地址: | 361005 福建省厦门*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类 识别 方法 装置 设备 | ||
本发明公开了一种分类识别方法、装置及设备,属于机器学习技术领域。所述方法包括:通过第一神经网络提取源域数据和目标域数据的跨域不变特征;通过第二神经网络提取源域数据和目标域数据的域辨识特征;通过第三神经网络根据跨域不变特征和域辨识特征,得到融合特征;利用融合特征进行分类识别和来源识别;根据识别结果训练第一神经网络、第二神经网络和第三神经网络;采用训练得到的第一神经网络,识别目标域数据对应的分类。通过将域辨识特征和跨域不变特征共同作为训练神经网络时的约束项,提高了训练完毕的神经网络对目标域数据进行分类识别的准确率。
技术领域
本发明实施例涉及机器学习技术领域,特别涉及一种分类识别方法、装置及设备。
背景技术
域自适应学习(domain adaptation learning)又称为跨域学习,简单地说,域自适应学习就是根据源域(source domain)的已学习到的知识对目标域(target domain)的输出进行学习。域自适应学习常用在分类识别的场景,通过有标签的源域数据和无标签的目标域数据,来获得性能优良的目标域分类器,实现跨域的学习任务。在域自适应学习中,通常采用人工神经网络(Artificial NeuralNetwork,以下简称“神经网络”)作为用于分类识别的模型。神经网络对目标域数据进行分类识别的准确率,往往由训练该神经网络所采用的训练方法所决定。
在相关技术中,通常采用基于特征表示的域自适应学习算法,是指将样本映射到新的特征空间中,通过选择合适的特征表示方式,使源域数据和目标域数据在新的特征空间下的分布相同或尽可能地相似。基于特征表示的域自适应学习算法的损失函数(lossfunction)包括两部分:其一是采用有标签的源域数据对神经网络进行监督训练所对应的损失函数,其二是引入约束项,对源域数据的特征分布和目标域数据的特征分布进行无监督约束,使得两个域的样本在高维空间上的分布尽可能地相似。通过梯度下降方法不断调整神经网络各层之间的权重,使得上述损失函数的值达到最小,从而完成对神经网络的训练。利用上述训练完成的神经网络,可以对目标域数据进行分类识别。
基于特征表示的域自适应学习算法包括基于统计量的特征约束、基于对抗思想的特征约束等算法,但其目的都是使得源域数据和目标域数据的特征分布尽可能地相似,也即找到源域数据和目标域数据的共性特征。在上述相关技术中,仅将源域数据和目标域数据的共性特征作为约束项,容易导致通过上述训练方法训练得到的神经网络,对目标域数据进行分类识别的准确率不够高。
发明内容
本发明实施例提供了一种分类识别方法、装置及设备,可用于解决相关技术中仅将源域数据和目标域数据的共性特征作为约束项,导致训练得到的神经网络对目标域数据进行分类识别的准确率不够高的问题。所述技术方案如下:
一方面,本发明实施例提供一种分类识别方法,该方法包括:
通过第一神经网络提取源域数据和目标域数据的跨域不变特征,所述跨域不变特征是指用于辨识数据对应的分类的特征;
通过第二神经网络提取所述源域数据和所述目标域数据的域辨识特征,所述域辨识特征是指用于辨识数据对应的来源的特征;
通过第三神经网络根据所述跨域不变特征和所述域辨识特征,得到融合特征;
利用所述融合特征进行分类识别和来源识别;
根据识别结果训练所述第一神经网络、所述第二神经网络和所述第三神经网络;
采用训练得到的所述第一神经网络,识别所述目标域数据对应的分类。
另一方面,本发明实施例提供一种分类识别装置,该装置包括:
第一提取模块,用于通过第一神经网络提取源域数据和目标域数据的跨域不变特征,所述跨域不变特征是指用于辨识数据对应的分类的特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学;深圳市腾讯计算机系统有限公司,未经厦门大学;深圳市腾讯计算机系统有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711244226.6/2.html,转载请声明来源钻瓜专利网。