[发明专利]用于训练判别模型的方法、装置、设备及可读存储介质在审
申请号: | 202010360406.6 | 申请日: | 2020-04-30 |
公开(公告)号: | CN111553428A | 公开(公告)日: | 2020-08-18 |
发明(设计)人: | 蒋旻悦;谭啸;孙昊;章宏武;文石磊;丁二锐 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 训练 判别 模型 方法 装置 设备 可读 存储 介质 | ||
本申请实施例公开了用于训练判别模型的方法、装置、电子设备及计算机可读存储介质,涉及人工智能技术领域。该方法的一具体实施方式包括:根据已知所属类别的图像特征数据确定每个类别的类中心;根据类中心进一步确定类内距离和类间距离;根据类内距离和类间距离来构建目标损失函数,并基于该目标损失函数训练得到图像类别判别模型。该实施方式基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
技术领域
本申请实施例涉及数据分类技术领域,尤其涉及人工智能技术领域。
背景技术
一个物体在不同场景、不同角度下分别拍摄得到的图像,应当被计算机识别为相同的物体,或者属于相同的类别,才能够在后续处理中得到准确的结论,该技术广泛应用于人脸、车牌及车辆的跨场景识别方面。
为实现该目的,现有技术往往基于交叉熵损失函数和难样本挖掘三元组损失函数来训练得到判别模型,并基于训练得到的判别模型来完成对待判别数据所属类别的判断。
发明内容
本申请实施例提出了一种用于训练判别模型的方法、装置、电子设备及计算机可读存储介质。
第一方面,本申请实施例提出了一种用于训练判别模型的方法,包括:根据已知所属类别的图像特征数据确定每个类别的类中心;根据类中心确定类内距离和类间距离;根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
第二方面,本申请实施例提出了一种用于训练判别模型的装置,包括:类中心确定单元,被配置成根据已知所属类别的图像特征数据确定每个类别的类中心;类内/类间距离确定单元,被配置成根据类中心确定类内距离和类间距离;损失函数构建及训练单元,被配置成根据类内距离和类间距离构建目标损失函数,并基于目标损失函数训练得到图像类别判别模型。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,该指令被至少一个处理器执行,以使至少一个处理器执行时能够实现如第一方面中任一实现方式描述的用于训练判别模型的方法。
第四方面,本申请实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行时能够实现如第一方面中任一实现方式描述的用于训练判别模型的方法。
本申请实施例提供的用于训练判别模型的方法、装置、电子设备及计算机可读存储介质,首先,根据已知所属类别的图像特征数据确定每个类别的类中心;接着,根据类中心进一步确定类内距离和类间距离;然后,根据类内距离和类间距离来构建目标损失函数,并基于该目标损失函数训练得到图像类别判别模型。相较于现有技术所使用的交叉熵损失函数和难样本挖掘三元组损失函数,本申请基于由类中心确定出的类内距离和类间距离构建了新的损失函数,基于新的损失函数对原始判别模型的训练,可使得最终训练出的图像类别判别模型可以充分考虑到类内紧致程度和类间区别程度,从而尽可能的缩小类内距离、增大类间距离,提升图像类别判别模型判别出的待判别图像数据所属类别的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的用于训练判别模型的方法的一个实施例的流程图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010360406.6/2.html,转载请声明来源钻瓜专利网。