[发明专利]一种用于细粒度分类的目标检测方法及设备有效
申请号: | 201910101320.9 | 申请日: | 2019-01-31 |
公开(公告)号: | CN109858552B | 公开(公告)日: | 2021-01-26 |
发明(设计)人: | 陈海波 | 申请(专利权)人: | 深兰科技(上海)有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 黄志华 |
地址: | 200336 上海市长宁区威*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 细粒度 分类 目标 检测 方法 设备 | ||
本发明公开了一种用于细粒度分类的目标检测方法及设备,涉及计算机视觉技术领域,用以解决现有技术中,目标检测时往往对目标图像的局部特征提取不够精细,或提取到不同细分类别的目标图像的局部特征间的区分度不够大,进而导致检测出的目标的类别不够细化的问题,本发明方法包括:获取目标的目标图像,通过预先构建的目标检测网络模型对所述目标图像进行目标检测,获得所述目标图像中目标的分类及位置,所述预先构建的目标检测网络模型中包括用于调整模型参数的分类损失函数,其中,构建目标检测网络模型过程中根据所述分类损失函数调整模型参数,使所述目标检测网络模型区分目标所属分类及同一类目标所属子分类。
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种用于细粒度分类的目标检测方法及设备。
背景技术
随着计算机视觉技术和深度学习网络技术的发展,目标检测近年来已经取得了很重要的进展,目标检测主流的算法主要分为两个类型:
(1)两阶段two-stage方法,如R-CNN(Region-based Convolutional NeuralNetworks)系算法,其主要思路是先通过启发式方法(selective search)或者卷积神经网络CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归;
(2)一阶段one-stage方法,如YoLo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用CNN提取特征后直接进行分类与回归。
细粒度检测识别关注点在于局部特征,对于一张图片,局部特征是很多的,怎么在众多的局部特征学习到有用的特征,这是一个难题。特别是在图片很少的情况下,很容易学到错误的特征,且上述目标检测中浅层的卷积核空间分辨率高,但是携带语义特征少,怎么将局部特征与语义特征相结合也是一个难点。
即上述两种进行目标检测的方法,虽能在检测目标的同时输出目标的分类,但现实场景中,往往对目标图像的局部特征提取不够,或提取到不同细分类别的目标图像的局部特征间的区分度不够大,进而导致检测出的目标的类别不够细化,不能应用于某些对目标分类要求较高的场景中,如存在大量外表相似,但实际商品种类不同的商品的商品细分类、人脸识别、行人再识别、车辆识别等,且现有技术中,对目标进行细分类检测时,需要目标检测网络模型和目标细粒度分类模型两个模型,操作复杂,浪费资源。
综上所述,现有技术中,目标检测时往往对目标图像的局部特征提取不够精细,或提取到不同细分类别的目标图像的局部特征间的区分度不够大,进而导致检测出的目标的类别不够细化的问题。
发明内容
本发明提供一种用于细粒度分类的目标检测方法及设备,用以解决现有技术中,目标检测时往往对目标图像的局部特征提取不够精细,或提取到不同细分类别的目标图像的局部特征间的区分度不够大,进而导致检测出的目标的类别不够细化的问题。
第一方面,本发明提供一种用于细粒度分类的目标检测方法,该方法包括:
获取目标的目标图像;
通过预先构建的目标检测网络模型对所述目标图像进行目标检测,获得所述目标图像中目标的分类及位置,所述预先构建的目标检测网络模型中包括用于调整模型参数的分类损失函数,其中,构建目标检测网络模型过程中根据所述分类损失函数调整模型参数,使所述目标检测网络模型区分目标所属分类及同一类目标所属子分类。
上述方法中,用能区分待检测的目标所属分类及同一类目标所属子分类的分类损失函数,替代现有技术中用于调整模型参数的损失函数,进而使提取到的不同细分类别的目标图像的局部特征间的区分度更大,以实现将上述外表相似的同一大类的目标进行子分类。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深兰科技(上海)有限公司,未经深兰科技(上海)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910101320.9/2.html,转载请声明来源钻瓜专利网。