[发明专利]一种基于一致惩罚场损失函数的深度度量学习方法在审
申请号: | 202210218075.1 | 申请日: | 2022-03-08 |
公开(公告)号: | CN114581688A | 公开(公告)日: | 2022-06-03 |
发明(设计)人: | 刘聪;佘文浩;张坤 | 申请(专利权)人: | 盐城工学院 |
主分类号: | G06V10/74 | 分类号: | G06V10/74;G06V10/82;G06V10/774;G06V10/776;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 224000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 一致 惩罚 损失 函数 深度 度量 学习方法 | ||
本发明公开了一种基于一致惩罚场损失函数的深度度量学习方法,通过采用一致惩罚场损失函数,对所有类别的样本采用一致的排斥场和吸引场。吸引场使相同类别的样本的特征更加聚合;排斥场使不同类别的样本特征间的距离更大。所述方法一方面可以优化和改善深度度量学习中样本嵌入特征的质量,另一方面,会使所有类别的决策边界趋于一致,提高基于同一阈值进行推理决策的精度。
技术领域
本发明涉及深度度量学习领域,尤其涉及一种基于一致惩罚场损失函数的深度度量学习方法。
背景技术
深度度量学习是计算机视觉中基础性问题,是许多重要应用的核心基础,比如产品图像检索、人脸识别、地标识别、零样本学习、行人重识别等。深度度量学习的目标是学习一个从对象样本到低维稠密的向量空间的映射,使得同类对象在嵌入空间上距离接近,而不同类别的对象之间的距离则比较远。
深度度量学习的相似度优化是通过损失函数的引导实现的,目前深度度量学习中所用的损失函数主要可分为两大类:基于样本对的损失函数(pair-based losses)和基于代理的损失函数(proxy-based losses)。基于样本对的损失函数通过学习成对标签,以优化嵌入空间中图像之间的成对相似性。基于代理的损失函数通过学习类级别的标签,在嵌入空间中使用代理作为每个类别的代表,从而优化图像样本与代理之间的相似性。
其中基于代理的损失函数由于其收敛速度快,训练复杂度低,在该领域的表现要优于基于样本对的损失函数。基于代理的损失函数主要采用Softmax函数,但原始的Softmax函数学习的特征对不同类别的区分度不够高。为增强对未知类别的识别能力,人们提出了基于余量的损失函数。
基于Softmax的损失函数的每个类别的决策边界为一条线,这种决策边界仅能区分不同的类别,但对不同类别图像特征嵌入间的距离并没有最大化。所以遇到训练时未见过类别的样本时,辨别效果会较差。而Arcface等基于余量的损失函数,决策边界是大小为余量(m)的角度缓冲区,每个类别的相似度至少相差这样一个余量距离。不同类别样本特征间的距离会更大,同类之间也会更聚。这样类别的区分度就会更大,从而达到更好的检测效果。
但由于数据集中不同类别样本的差异性,无论是基于Softmax还是基于余量的损失函数,每个类别的决策边界都会各不相同。而在推理阶段,所有类别都需要采用统一的阈值进行推理决策,因此类别间决策边界的差异会影响到决策推理的准确率。
发明内容
鉴于上述问题,本发明的目的在于提供一种基于一致惩罚场损失函数的表征学习方法,通过该损失函数能让所以类别的决策边界尽可能的趋于一致,从而提高训练出的深度度量学习模型的性能。一种基于一致惩罚场损失函数的表征学习方法,包括以下步骤:
步骤S10,获取数据集,并将数据集划分为训练集、测试集和验证集,并对训练集图片进行统一尺寸,数据增强等处理。
步骤S20,将训练集输入至深度学习模型中,获得图像的嵌入特征,随后利用一致惩罚场损失函数得到网络模型的损失值。所述一致惩罚场损失函数的实现则是通过执行步骤S21-步骤S23。
步骤S21,为相同类别的样本提供吸引场。目的是拉近同一类样本间的距离。吸引场的强度与proxy和样本特征之间的余弦距离成正比。相似度越小,吸引力就会越大。吸引场的表达式如下:
其中是第i个样本特征与其proxy之间的角度,N是批次数,是第i个样本吸引力的权重。
步骤S22,为不同类别的样本提供惩罚场。目的是推远不同类别样本间的距离。惩罚场的强度与proxy和样本特征之间的余弦距离成反比,相似性越大,推力越大。惩罚场的表达式如下:
其中是第i个样本和第j个proxy的特征之间的角度,则是第i个样本与第j个proxy之间的惩罚力权重,而则是用以消除无信息负面要素的阈值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于盐城工学院,未经盐城工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210218075.1/2.html,转载请声明来源钻瓜专利网。