[发明专利]一种高效的尺度规范化目标检测训练方法在审
申请号: | 201910949649.0 | 申请日: | 2019-10-08 |
公开(公告)号: | CN110738208A | 公开(公告)日: | 2020-01-31 |
发明(设计)人: | 张发恩;赵江华;秦永强 | 申请(专利权)人: | 创新奇智(重庆)科技有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 44502 广州鼎贤知识产权代理有限公司 | 代理人: | 丁雨燕 |
地址: | 400039 重庆市九龙坡区*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 有效尺度 图像金字塔 负样本 正样本 图像 批处理 尺度 标准化参数 大小设置 固定间隔 检测结果 模型训练 目标尺度 目标检测 问题分析 训练数据 预测结果 原始图像 假阳性 预测 放入 构建 覆盖 标注 输出 规范化 融合 检测 更新 表现 | ||
本发明涉及一种高效的尺度规范化目标检测训练方法,过程为:根据问题分析选取模型输出的有效尺度范围以及图像金字塔层数,构建设定层数的图像金字塔,按固定间隔切分出固定大小的图像,从切分的图像中选择最少的能在有效尺度范围内覆盖所有标注目标的切分图像为正样本;同时将原始图像进行粗训练检测,选择最少的有效尺度覆盖所有假阳性目标的小图作为负样本,将正样本和负样本一起放入训练集中进行训练后进行预测,预测阶段将多个尺度的预测结果进行NMS融合。本方法在模型训练时,可以将批处理大小设置得更大,这样方便模型根据训练数据更准确的更新批标准化参数,提高模型表现,在数据中目标尺度分布较广时,能获得更稳定的检测结果。
技术领域
本专利申请属于图像识别技术领域,更具体地说,是涉及一种高效的尺度规范化目标检测训练方法。
背景技术
目标检测与识别技术发展迅猛,市场需求也日渐高涨,主要有以下几个应用场景:
①安全领域:指纹识别、人脸识别等;
②军事领域:地形勘察、飞行物识别等;
③交通领域:车牌号识别、无人驾驶、交通标志识别等;
④医疗领域:心电图、B超、健康管理、营养学等;
⑤生活领域:智能家居、购物、智能测肤。
目前实际效果最好的目标检测识别算法大都是基于卷积神经网络的方法,这些方法都是让模型学习目标在预先设置的各种尺度和长宽比例的Anchor的分类和回归任务完成的。但在目标尺度分布广的情况下时,需要的Anchor数量会更大,这会让模型增加更多参数及计算量,同时由于卷积神经网络在图像尺度变化时,图像的特征描述向量也会有明显变化,模型很难学到多个尺度稳定的识别模型。因此,需要提出一种目标尺度规范化的高效训练方法。可以有效减少计算量,加快训练速度,让模型在多尺度目标识别上更加稳定。
发明内容
本发明需要解决的技术问题是提供一种高效的尺度规范化目标检测训练方法,可以有效减少计算量,加快训练速度,让模型在多尺度目标识别上更加稳定。
为了解决上述问题,本发明所采用的技术方案是:
一种高效的尺度规范化目标检测训练方法,包括通过对输入图像构建图像金字塔,结合标注目标生成固定大小的输入图像,输入图像中只有尺度在给定范围内的标注目标才属于有效目标,从而选取出正样本;同时利用训练集做小图的负样本挖掘训练,这里可以使用任意检测模型初步进行训练,从中找到存在的假阳性的目标,从包含假阳性目标的小图中选择作为负样本;最后将正样本、负样本一起放入训练集中进行模型训练,预测阶段将多个尺度的预测结果进行融合。
本发明技术方案的进一步改进在于:包括如下步骤:
a、正样本选取:确定原始图像,根据问题分析选取该原始图像对应的模型输出的有效尺度范围以及图像金字塔层数,构建设定层数的图像金字塔,然后按固定间隔将图像金字塔切分出固定大小的图像,从这些切分出来的图像中选择最少的能在有效尺度范围内覆盖所有标注目标的切分图像为正样本;
b、负样本选取:首先根据确定的训练集,选择一个合适的检测模型,让该检测模型在此训练集上进行粗训练,不需要结果很精确,然后使用训练好的检测模型在原始图像上进行测试,找到原始图像中假阳性的目标,接着按照正样本选取的方式首先对原始图像金字塔进行切分,从切成的小图中选取包含一定数量假阳性目标的小图作为负样本,如果该小图已经添加到正样本中,则跳过;
c、训练及标签映射:选择端到端的检测模型对正样本和负样本进行训练,训练时对落入小图中的目标都进行标签映射操作,而不会根据设定的尺度范围进行筛选;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于创新奇智(重庆)科技有限公司,未经创新奇智(重庆)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910949649.0/2.html,转载请声明来源钻瓜专利网。