[发明专利]一种基于域自适应的多初始值元学习框架及方法在审
申请号: | 202110210507.X | 申请日: | 2021-02-25 |
公开(公告)号: | CN112734049A | 公开(公告)日: | 2021-04-30 |
发明(设计)人: | 陈政聿;王东林 | 申请(专利权)人: | 西湖大学 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06N3/08 |
代理公司: | 无锡市汇诚永信专利代理事务所(普通合伙) 32260 | 代理人: | 李珍珍 |
地址: | 310000 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 初始值 学习 框架 方法 | ||
本发明提供一种基于域自适应的多初始值元学习框架及方法,框架包括跨域编码器,将输入数据通过共有编码器编码为共有特征向量,通过私有编码器编码为私有特征向量;跨域调制网络,将共有特征向量编码为域公用调制向量,私有特征向量编码为域专用调制向量;元分离网络,用于在源域和目标域中更新元学习器,其中元学习器的参数分为由域公用调制向量调制的参数公共部分和由域专用调制向量调制的参数私有部分,该学习框架及方法可在一定程度上提高算法在少样本问题中的准确率,并广泛适用于跨域数据的元学习中。
技术领域
本发明涉及元学习技术领域,具体涉及一种基于域自适应的多初始值元学习框架及方法。
背景技术
人工智能在各种技术领域中都有着广泛的应用,其存在的基本问题是其无法像人类一样高效地学习,需要不断地用训练样本对其进行训练学习,训练样本越完善越多,则训练得到的人工智能模型的结果就越好。然而在实际过程中经常会出现训练样本数量不足的问题,因此如何进行有效的少样本学习,已成为人工智能学习领域的一个备受关注的问题。
元学习是解决少样本学习的一种有效方法,元学习也可被理解为“学习如何学习”,现有的元学习方法包括基于度量学习的方法、基于元优化的方法、基于循环模型的方法,但是这些元学习方法的损失函数仅与特定任务有关,而没有域无关或者域自适应的约束,因此,这些方法在单域任务上表现良好,而在跨域数据上都存在着泛化性能不足的缺陷。
具体而言,元测试阶段和元训练阶段中不同类别产生的分布不同,导致了元学习方法存在领域转换的问题,尽管多初始值技术在识别任务模式方面取得了成功,但依旧无法解决由不同类别分布产生的领域转移导致的其在跨域领域存在泛化不足的缺陷。也就是说,现有的领域适应方法只能使元学习方法适应单模态元测试领域,而不能适应多模态元测试领域,到目前为止,如何缓解多模式设置中元训练和元测试阶段之间的领域转换仍然是一个挑战。
总计而言,目前的元学习方法无法很好地适用于跨域数据的学习,也就限制了其在集合跨域数据的应用场景的应用。
发明内容
本发明的目的在于提供一种基于域自适应的多初始值元学习框架及方法,可广泛适用于跨域数据的元学习,且在一定程度上提高算法在少样本问题中的准确率。
为实现上述目的,本技术方案提供一种基于域自适应的多初始值元学习框架及方法,该基于域自适应的多初始化元学习框架包括:
跨域编码器,将输入数据通过共有编码器编码为共有特征向量,通过私有编码器编码为私有特征向量;
跨域调制网络,将共有特征向量编码为域公用调制向量,私有特征向量编码为域专用调制向量;
元分离网络,用于在源域和目标域中更新元学习器,其中元学习器的参数分为由域公用调制向量调制的参数公共部分和由域专用调制向量调制的参数私有部分。
其中跨域编码器的损失函数的计算公式为:
Le=Lr+Ld+Ls,
其中Lr为重构误差损失函数,通过缩小重构误差,使得编码器提取的信息尽可能保留编码前的信息,Ld为跨域差异损失函数,起到让编码器输出的共有特征向量和私有特征向量的差异增大的作用,Ls为跨域相似损失函数,起到让编码器输出的跨域共有特征向量更接近的作用,本方案训练的目标是最小化跨域编码器参数的总损失。
重构误差损失函数Lr的具体公式如下:
该公式中,其中为输入数据,为对输入数据重构后的预测值,s为源域, t为目标域,d为目标域和源域的集合;
跨域差异损失函数Ld的具体公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西湖大学,未经西湖大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110210507.X/2.html,转载请声明来源钻瓜专利网。