[发明专利]基于物体检测模型的物体标注方法及相关设备在审
申请号: | 201910046921.4 | 申请日: | 2019-01-18 |
公开(公告)号: | CN109919149A | 公开(公告)日: | 2019-06-21 |
发明(设计)人: | 陈峥嵘 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06T7/12;G06T11/40 |
代理公司: | 北京市京大律师事务所 11321 | 代理人: | 刘立天 |
地址: | 518033 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体检测 标注 模型确定 图片 申请 人工智能领域 模型获得 物体区域 | ||
1.一种基于物体检测模型的物体标注方法,其特征在于,包括以下步骤:
获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
根据所述区域内的物体通过物体检测模型确定所述物体的类型;
根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
2.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域,包括:
获取图片并根据所述图片通过物体检测模型生成多个物体候选框;
在所述多个物体候选框中根据物体相似概率对所述物体候选框进行筛选;
根据筛选后的物体候选框确定物体的区域。
3.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述区域内的物体通过物体检测模型确定所述物体的类型,包括:
获取所述图片中物体在所述图片中所处的区域;
通过高斯函数与所述区域对应的图像的卷积获取尺度空间,并在所述尺度空间上检测像素极值点,根据所述像素极值点获取特征点的位置及尺度并为所述特征点分配方向,根据所述特征点的位置、尺度及方向信息生成特征向量;
将所述特征向量输入SVM分类器中,通过所述SVM分类器获取所述区域对应的物体的类型。
4.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体区域确定所述图片中物体在所述图片中所处的区域对应的外边框范围;
在所述外边框范围上通过线条对所述物体的区域进行标注。
5.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
获取所述物体的类型;
在所述物体的区域内通过文本信息对所述物体的类型进行标注。
6.如权利要求2所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
将所述特征向量输入RCNN模型,通过所述RCNN模型获取物体类型及所述物体类型对应的可信概率;
在所述物体的区域内通过文本信息对所述物体类型及所述物体类型对应的可信概率进行标注。
7.如权利要求2所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体类型将所述特征向量输入包含所述物体类型训练数据的MASK-RCNN模型,通过所述MASK-RCNN模型获取所述物体的轮廓;
在所述物体区域中对所述物体的轮廓进行透明色填充。
8.一种基于物体检测模型的物体标注装置,其特征在于,所述装置包括:
物体区域获取模块:设置为获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
物体类型获取模块:设置为根据所述区域内的物体通过物体检测模型确定所述物体的类型;
标注模块:设置为根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行如权利要求1至7中任一项所述物体标注方法的步骤。
10.一种存储介质,其特征在于,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至7中任一项所述物体标注方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910046921.4/1.html,转载请声明来源钻瓜专利网。