[发明专利]基于多尺度特征融合的图像检测方法在审
申请号: | 202010578124.3 | 申请日: | 2020-06-22 |
公开(公告)号: | CN111738336A | 公开(公告)日: | 2020-10-02 |
发明(设计)人: | 黄良军;谢福;张晓宁;祝鲁宁 | 申请(专利权)人: | 上海应用技术大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海汉声知识产权代理有限公司 31236 | 代理人: | 胡晶 |
地址: | 200235 上海*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 尺度 特征 融合 图像 检测 方法 | ||
1.一种基于多尺度特征融合的图像检测方法,其特征在于,包括:
步骤S1:从监控视频中提取待检测图像;
步骤S2:将所述待检测图像输入改进的深度卷积神经网络以提取特征,得到特征图像;
步骤S3:将所述特征图像对应的卷积块分别进行不同尺度的池化处理,得到包含不同层次的卷积块信息的融合特征图像;
步骤S4:对所述融合特征图像进行目标区域判定,得到目标区域图像;
步骤S5:对所述目标区域图像进行ROI池化,得到固定长度的特征向量;
步骤S6:将所述特征向量输入全连接层序列,得到两个输出对象类;
步骤S7:通过分类器对所述两个输出对象类的概率进行估计,得到分类结果,并通过目标框回归确定每个对象类的预测边界框位置;
步骤S8:根据所述分类结果和每个对象类的边界框位置,确定未佩戴安全帽的人员,并进行安全警告。
2.根据权利要求1所述的基于多尺度特征融合的图像检测方法,其特征在于,所述步骤S1包括:
步骤S11:实时获取监控视频;
步骤S12:将所述监控视频的视频图像进行灰度处理后,建立纹理特征模型;
步骤S13:通过纹理特征算法确定所述纹理特征模型参数;
步骤S14:通过所述纹理特征模型分割出待检测图像的背景和前景;其中,包含安全帽纹理的区域为前景,不包含安全帽纹理的区域为背景。
3.根据权利要求1所述的基于多尺度特征融合的图像检测方法,其特征在于,所述步骤S2包括:
步骤S21:将所述待检测图像分别输入改进的深度卷积神经网络中的每一个卷积核中,得到底层特征信息;所述卷积核包括:5×5×20的滤波器、3×3×40的滤波器、3×3×60的滤波器、3×3×80的滤波器;
步骤S22:通过单位高斯分布规范网络中的激活函数对所述底层特征信息进行优化,得到第二特征信息;
步骤S23:通过激活层对所述第二特征信息进行增强处理,得到第三特征信息;
步骤S24:对所述第三特征信息进行池化处理,得到降维后的所述特征图像。
4.根据权利要求1所述的基于多尺度特征融合的图像检测方法,其特征在于,所述步骤S3包括:
步骤S31:将所述特征图像分别输入不同尺度的池化层,得到不同的卷积块信息;
步骤S32:对不同的卷积块信息进行拼接,并将拼接的结果作为全连接层的输入,得到包含不同层次的卷积块信息的融合特征图像。
5.根据权利要求1-4中任选一项所述的基于多尺度特征融合的图像检测方法,其特征在于,所述步骤S7包括:
步骤S71:通过Softmax分类器获取所述两个输出对象类对应的RoI的概率分布,产生Softmax概率估计;
步骤S72:通过目标框回归确定所述两个输出对象类的预测边界框位置;
步骤S73:依据softmax概率估计与预测边界框位置构建损失函数,其中,所述损失函数是通过叠加所有预测框的损失得到的;
步骤S74:根据所述损失函数和Softmax分类器,确定每个预测边界框对应的分类结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海应用技术大学,未经上海应用技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010578124.3/1.html,转载请声明来源钻瓜专利网。