[发明专利]分布外样本检测方法、装置、设备、介质在审
申请号: | 202310572344.9 | 申请日: | 2023-05-19 |
公开(公告)号: | CN116580015A | 公开(公告)日: | 2023-08-11 |
发明(设计)人: | 瞿晓阳;王健宗;陈劲钢 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/82;G06N3/084;G06V10/774;G06N3/0464 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 尹长斌 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布 样本 检测 方法 装置 设备 介质 | ||
本申请提供了一种分布外样本检测方法、装置、设备、介质,属于人工智能领域,方法包括:将待检测图像输入包括卷积层和归一化层的目标分类模型;待检测图像通过卷积层得到多个携带图像类别标签的特征图像;获取包括多个图像类别标签相同的特征图像的特征图像集,并输入至归一化层进行反向传播处理,得到多个虚拟分布内样本图像;针对图像类别标签相同的特征图像和虚拟分布内样本图像计算图像差异值,并确定分布外样本检测结果。本申请通过根据待检测图像和目标分类模型生成虚拟分布内样本图像,基于虚拟分布内样本图像对待检测图像进行分布外样本检测,相比应用根据真实分布样本训练得到的模型检测分布外样本的方法,提高检测效率。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种分布外样本检测方法、装置、设备、介质。
背景技术
区别于用于训练模型的样本数据,即分布内样本,分布外样本指的是在语义上与分布内样本产生了偏移的真实样本,并且分布外样本不属于待分类的任何一种类别。现有的深度神经网络模型倾向于给予分布外样本高置信度的判断,当深度神经网络模型接收到分布外样本时,通常不能给出可靠的结果,甚至会给出一个高置信度但是错误的预测结果,例如,在自动驾驶的汽车控制过程中,在遇到一个未出现过的障碍物的情况下,汽车系统所获取到的未出现过的障碍物对应的样本图像即分布外样本,汽车系统可能会基于预设的模型对该分布外样本对应的障碍物信息做出错误的分类结果预测,而不是控制汽车系统做出安全反应以及异常提示,对行车安全造成一定的安全风险。因此,在应用深度神经网络模型之前,有必要对输入模型的样本数据进行分布外样本的检测。
但是,现有的分布外样本检测方法主要基于Max softmax方法、energy score方法或生成式方法实现,上述的三种分布外样本检测方法均需要收集大量的原始训练样本数据,即分布内样本数据,甚至需要分布外样本数据作为数据基础进行分布外样本的检测,具体方法为:基于Max softmax方法、energy score方法或生成式方法,根据分布内样本数据和分布外样本数据训练目标模型,应用该目标模型实现分布外样本检测,样本数据主要通过人工标注的方式得到,获取样本数据的成本高且效率低,从而使得分布外样本检测的效率较低。
发明内容
本申请实施例的主要目的在于提出一种分布外样本检测方法、装置、设备、介质,能够有效提高分布外样本检测的效率。
为实现上述目的,本申请实施例的第一方面提出了一种分布外样本检测方法,所述方法包括:
获取待检测图像,将待检测图像输入至预先训练好的目标分类模型,所述目标分类模型包括依次连接的卷积层和归一化层;
通过所述卷积层对所述待检测图像进行特征提取,得到多个特征图像;
确定各个所述特征图像的图像类别标签,根据所述图像类别标签相同的多个所述特征图像得到特征图像集;
将各个所述特征图像集输入至所述归一化层进行梯度反向传播处理,得到多个虚拟分布内样本图像,并确定各个所述虚拟分布内样本图像所对应的所述图像类别标签;
针对所述图像类别标签相同的所述特征图像和所述虚拟分布内样本图像计算图像差异值;
基于所述图像差异值,确定所述待检测图像的分布外样本检测结果。
在一些实施例中,所述针对所述图像类别标签相同的所述特征图像和所述虚拟分布内样本图像计算图像差异值,包括:
获取多个第一类别参考值,各个所述第一类别参考值为所述图像类别标签相同的所述特征图像的均值;
获取多个第二类别参考值,各个所述第二类别参考值为所述图像类别标签相同的所述虚拟分布内样本图像的均值;
将所述图像类别标签相同的所述第一类别参考值与所述第二类别参考值的差值的绝对值确定为所述图像差异值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310572344.9/2.html,转载请声明来源钻瓜专利网。