[发明专利]基于区域卷积神经网络的目标检测与二级分类算法及装置在审
申请号: | 201910273365.4 | 申请日: | 2019-04-04 |
公开(公告)号: | CN110084284A | 公开(公告)日: | 2019-08-02 |
发明(设计)人: | 张斯尧;谢喜林;王思远;黄晋;蒋杰;张诚 | 申请(专利权)人: | 苏州千视通视觉科技股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/32 |
代理公司: | 长沙德恒三权知识产权代理事务所(普通合伙) 43229 | 代理人: | 徐仰贵 |
地址: | 215000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 算法 二级分类 目标检测 卷积神经网络 数据增强 算法模型 图像检测模型 算法可靠性 目标识别 目标图像 三个步骤 算法处理 应用性能 准确检测 不变性 高效率 计算量 鲁棒性 原有的 分类 改进 图像 检测 | ||
1.一种基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,包括以下步骤:
S1:采集目标图像并进行基于PCA的数据增强处理;
S2:对数据增强后的图像做目标检测的R-FCN算法处理,具体步骤如下:
S2.1:定位并确定目标:利用ResNet网络生成特征映射图,并利用区域建议网络对生成的特征映射图进行全图的前后景目标搜索和筛选,以确定目标框;
S2.2:进行目标具体类别的分类:在确定的目标框的基础上利用R-FCN的分类网络对目标框进行分类识别;
S3:对基于R-FCN训练好的图像检测模型进行训练改进,具体步骤如下:
S3.1:增加多个分支,同时调整算法中对输入图片动态长宽比的实际需求模型;
S3.2:训练出需要的目标模型,对目标模型进行二级细分类。
2.如权利要求1所述的基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,所述步骤S1包括:
S1.1:对目标图像进行镜面对称,获得翻倍的数据集;
S1.2:在获得的数据集中对于目标系列的数据集进行背景分割;
S1.3:对数据集中的图像进行PCA处理。
3.如权利要求2所述的基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,所述步骤S1.1中对目标图像的数据进行镜面对称的方式为:左右对称和上下对称,将数据集数量翻两番。
4.如权利要求2所述的基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,所述步骤S1.3包括:
首先根据RGB三色对样本阵元进行标准化处理,变换色通道计算均值和标准差,对网络的输入数据进行规范化,其公式具体如下:
随后在整个训练集上计算协方差矩阵,其公式具体如下:
解相关矩阵R的特征方程|R-λIp|=0得到p个特征根,确定主成分的每个λj,j=1,2,...m,解方程组Rb=λjb得到单位特征向量将标准化后的指标变量变换为主成分;
将求出的特征向量按照特征值的大小进行组合形成一个映射矩阵,并根据指定的PCA保留的特征个数取出映射矩阵的前n行或者前n列作为最终的映射矩阵,用映射矩阵对原始数据进行映射,并将上述经过数据增强预处理的图像输出最终结果。
5.如权利要求1所述的基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,所述S2.1具体为使用ResNet50网络对图片进行卷积池化操作,将特征映射图里的信息转换为候选区域的位置信息和其为前后景的概率信息,RPN默认用9个搜索框来搜索一块区域,通用目标的其中搜索区域的尺度设置图片的长宽比可变,总体图片大小不变。
6.如权利要求5所述的基于区域全卷积神经网络的目标检测与二级分类算法,其特征在于,所述S2.2具体为基于ResNet50网络生成的特征映射图,利用卷积操作在整幅图像上为每类生成k×k个位置敏感分数图;每个位置敏感图有C个通道输出,代表C-1类物体外加一个背景,对于一个w×h大小的候选目标框,此由RPN网络获得,将目标框划分为k×k个子区域,则每个子区域为w×h/k2大小,对于任意一个子区域bin(i,j),0≤i,j≤k-1,定义一个位置敏感池化操作,具体公式为:
rc(i,j|Θ)是子区域bin(i,j)对C个类别的池化响应,zi,j,C是子区域bin(i,j)所对应的位置敏感分数图,(x0,y0)代表目标候选框左上角的坐标,n是子区域bin(i,j)中的像素数,Θ代表网络的所有学习得到的参数,计算k×k个子区域的池化响应输出rc(i,j|Θ)的均值,利用Softmax回归分类方法获得其属于每个类别的概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州千视通视觉科技股份有限公司,未经苏州千视通视觉科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910273365.4/1.html,转载请声明来源钻瓜专利网。