[发明专利]一种基于均衡互补熵的长尾图像分类方法及系统在审
申请号: | 202210500992.9 | 申请日: | 2022-05-10 |
公开(公告)号: | CN114821184A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 杨钊;胡陆宇;李嘉壕;罗名凯;曹任龙 | 申请(专利权)人: | 广州大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06V10/774;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 广州高炬知识产权代理有限公司 44376 | 代理人: | 孙明科 |
地址: | 510006 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 均衡 互补 长尾 图像 分类 方法 系统 | ||
本发明公开了一种基于均衡互补熵的长尾图像分类方法及系统,其方法包括如下步骤:针对获取的长尾图像训练集,读取图像数据及标签;随机初始化卷积神经网络参数,采用mini‑batch的方式对提取的图像数据进行前向计算,得到全连接层输出,并计算Softmax预测概率;设计均衡互补熵损失函数,通过在归一化的互补熵损失函数中引入一个自适应权重系数,得到均衡互补熵损失函数,利用预测概率计算互补类的损失;联合交叉熵损失函数和均衡互补熵损失函数对分类模型进行训练,引导网络模型参数更新,得到图像分类模型。本发明提出的均衡互补熵的训练算法能够解决长尾图像的分类问题,能够带来更好的分类效果,拥有更好的泛化能力。
技术领域
本发明涉及深度学习图像分类技术领域,具体涉及一种基于均衡互补熵的长尾图像分类方法及系统。
背景技术
近年来,基于深度学习的图像分类技术取得巨大的成功,但大多数性能优越的图像分类技术依赖类别平衡的数据集,导致在类别不平衡的数据集中无法发挥较好的分类性能。在现实场景下,类别不平衡的数据集更趋向于长尾分布,其中数量占优势的类别称为头类,不具优势的类别称为尾类。若直接将长尾分布的数据集用于模型训练,由于头类和尾类的样本数量差异较大,传统的图像分类技术模型容易偏向于训练样本较多的头类,忽视样本数量较少的尾类,进而造成分类性能下降。为了解决这一问题,目前较为常用的解决方法有重采样(re-sampling)技术和重加权(re-weighting)技术。最基本的重采样技术通过过采样(over-sampling)随机增加尾类的样本数量,或通过欠采样(under-sampling)随机减少头部类的样本数量,使得长尾数据集的分布变得相对均衡。重加权技术为损失函数设计一个权重因子,以平衡不同类别间的损失值。然而,这两种常用的技术也存在一定的弊端。例如,重采样技术容易造成模型的过拟合或者欠拟合现象,而重加权技术需要精心地设计一个权重因子才能有效地提高模型分类性能。
发明内容
针对上述问题,本发明提出一种基于均衡互补熵的长尾图像分类方法及系统,通过新的均衡互补熵的训练算法能够解决长尾图像的分类问题,带来更好的分类效果,拥有更好的泛化能力。
本发明采用如下技术方法来实现:
一种基于均衡互补熵的长尾图像分类方法,包括以下步骤:
步骤1、获取长尾图像训练集,针对长尾图像训练集,读取图像数据及标签;
步骤2、随机初始化卷积神经网络参数,采用mini-batch的方式对提取的图像数据进行前向计算,得到全连接层输出,并计算Softmax预测概率;
步骤3、设计均衡互补熵损失函数,通过在归一化的互补熵损失函数中引入一个自适应权重系数,得到均衡互补熵损失函数,然后利用Softmax预测概率计算互补类的损失;
步骤4、联合交叉熵损失函数和均衡互补熵损失函数对分类模型进行训练,引导网络模型参数更新,得到图像分类模型。
一种基于均衡互补熵的长尾图像分类系统,其包括如下步骤:
数据集处理模块,用于获取长尾图像训练集,针对长尾图像训练集,读取图像数据及标签;
预测概率计算模块,用于随机初始化卷积神经网络参数,采用mini-batch的方式对提取的图像数据进行前向计算,得到全连接层输出,并计算Softmax预测概率;
均衡互补熵训练模块,用于设计均衡互补熵损失函数,通过在归一化的互补熵损失函数中引入一个自适应权重系数,得到均衡互补熵损失函数,然后利用Softmax预测概率计算互补类的损失;
分类模型获取模块,用于联合交叉熵损失函数和均衡互补熵损失函数对分类模型进行训练,引导网络模型参数更新,得到图像分类模型。
本发明的提供的基于均衡互补熵的长尾图像分类方法及系统,其相比于现有的技术,具有如下优点:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州大学,未经广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210500992.9/2.html,转载请声明来源钻瓜专利网。