[发明专利]一种基于多尺度深度卷积神经网络的全场位移在线识别方法在审
申请号: | 202211391034.9 | 申请日: | 2022-11-07 |
公开(公告)号: | CN115953638A | 公开(公告)日: | 2023-04-11 |
发明(设计)人: | 龙湘云;姜潮;熊伟 | 申请(专利权)人: | 湖南大学 |
主分类号: | G06V10/77 | 分类号: | G06V10/77;G06N3/0464;G06N3/08;G06V10/44;G06V10/80;G06V10/82 |
代理公司: | 北京律谱知识产权代理有限公司 11457 | 代理人: | 孙红颖 |
地址: | 410082 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 尺度 深度 卷积 神经网络 全场 位移 在线 识别 方法 | ||
1.一种基于多尺度深度卷积神经网络的全场位移在线识别方法,其特征在于,所述全场位移在线识别方法包括以下步骤:
步骤1,建立散斑图像-位移数据集,标识出散斑图像对应的位移;
步骤2,根据散斑图像的位移,将其分为不同尺度的数据集,并将散斑图裁剪到相应的尺寸;
步骤3,构建基于深度学习的多尺度卷积神经网络,自动判断输入的散斑图的尺度,并输出相应的位移;
所述多尺度卷积神经网络包括特征提取模块和多尺度决策融合模块;
所述特征提取模块包括小尺度CNN网络、中尺度CNN网络、大尺度CNN网络和全尺度CNN网络,分别输出小尺度特征向量、中尺度特征向量、大尺度特征向量和全尺度特征向量;
所述多尺度决策融合模块将四个不同尺度的特征向量生成系数矩阵,并通过系数矩阵与小尺度特征向量、中尺度特征向量和大尺度特征向量进行融合生成输出向量。
2.根据权利要求1所述全场位移在线识别方法,其特征在于,所述小尺度CNN网络包括依次连接的第一小尺度卷积模块、平均池化层、第二小尺度卷积模块、第三小尺度卷积模块、第四小尺度卷积模块、第五小尺度卷积模块和第六小尺度卷积模块;
所述中尺度CNN网络包括依次连接的第一中尺度卷积模块、平均池化层、第二中尺度卷积模块、第三中尺度卷积模块、第四中尺度卷积模块、第五中尺度卷积模块和第六中尺度卷积模块;
所述大尺度CNN网络包括依次连接的第一大尺度卷积模块、平均池化层、第二大尺度卷积模块、第三大尺度卷积模块、第四大尺度卷积模块、第五大尺度卷积模块、第六大尺度卷积模块和第七大尺度卷积模块;
所述全尺度CNN网络包括依次连接的第一全尺度卷积模块、平均池化层、第二全尺度卷积模块、第三全尺度卷积模块、第四全尺度卷积模块、第五全尺度卷积模块、第六全尺度卷积模块和第七全尺度卷积模块;
各卷积模块均包括依次连接的数量和尺寸不同的卷积核、归一化单元和Relu函数单元。
3.根据权利要求1所述全场位移在线识别方法,其特征在于,在步骤3中,多尺度融合模块中,四个不同尺度的输出数据叠加在一起,然后进入全连接层,生成一个6×1的向量。这个向量被改变形状,然后通过一个SoftMax层,生成一个3×2的系数矩阵
在该系数矩阵中,满足以下等式:
其中,cj和dj表示各尺度系数矩阵的元素,并且都在[0,1]的范围内;最后,可以得到输入子集图像对应的位移向量为:
其中,u1为小尺度特征向量的横坐标,v1为小尺度特征向量的纵坐标,u2为中尺度特征向量的横坐标,v2为中尺度特征向量的纵坐标,u3为大尺度特征向量的横坐标,v3为大尺度特征向量的纵坐标。
4.根据权利要求3所述全场位移在线识别方法,其特征在于,在步骤3中还包括位移场多尺度卷积神经网络分阶段训练方法:
对每个单尺度网络都是单独训练的,冻结训练和验证后的参数;然后训练多尺度融合模块,只更新多尺度融合模块的权重参数。
5.根据权利要求4所述全场位移在线识别方法,其特征在于,在步骤3中,使用模型的预测值与实际值之间的偏差量的均方误差(MSE)来定义:
其中,n是每个迭代步骤中使用的数据数量,是第i个输入散斑图像的预测位移,是第i个输入散斑图像的实际位移,i=1,2,…,n;
基于训练数据集,通过最小化损失值来学习包括权重W和b在内的模型参数的最佳值:
当得到权重W和偏置b时,融合系数cj和dj可以通过决策层融合模块来计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211391034.9/1.html,转载请声明来源钻瓜专利网。