[发明专利]基于图像识别检测结构应力的方法、装置、设备及介质在审
申请号: | 201910099745.0 | 申请日: | 2019-01-31 |
公开(公告)号: | CN109858551A | 公开(公告)日: | 2019-06-07 |
发明(设计)人: | 王维;邓露;史鹏;何维;褚鸿鹄 | 申请(专利权)人: | 湖南大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08;G01L1/24 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 罗满 |
地址: | 410082 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 结构应力 应力状态 检测 训练样本集 图像识别 样本图像 计算机可读存储介质 训练神经网络 铁磁性材料 材料结构 电学检测 结构材料 试验构件 图像输入 应力检测 检测法 构建 标注 损伤 申请 | ||
1.一种基于图像识别检测结构应力的方法,其特征在于,包括:
获取待测结构图像;
将所述待测结构图像输入至预先构建的结构应力检测模型,得到所述待测结构的应力值;
其中,所述结构应力检测模型为利用训练样本集训练神经网络模型所得,所述训练样本集包括多张处于不同应力状态、且与所述待测结构材料相同的试验构件的样本图像,每个样本图像预先标注相应应力状态下的应力值。
2.根据权利要求1所述的基于图像识别检测结构应力的方法,其特征在于,在所述将所述待测结构图像输入至预先构建的结构应力检测模型之前,还包括:
获取模型验证数据集,所述模型验证数据集包括多张验证样本图像,各验证样本图像为已知实际应力值、且与所述待测结构材料相同的试验构件的图像;
将各验证样本图像输入至所述结构应力检测模型中,得到各验证样本图像的预测应力值;
基于各验证样本图像的预测应力值和实际应力值、验证样本图像总数量,计算所述结构应力检测模型的准确率;
判断所述结构应力检测模型的准确率是否不小于预设阈值;
若是,则将所述结构应力检测模型用于后续计算所述待测结构的应力值;若否,则增加所述训练样本集中的样本图像,并重新训练所述结构应力检测模型直至准确率不小于所述阈值。
3.根据权利要求2所述的基于图像识别检测结构应力的方法,其特征在于,所述基于各验证样本图像的预测应力值和实际应力值、验证样本图像总数量,计算所述结构应力检测模型的准确率包括:
统计预测应力值和实际应力值的差值大于预设偏离值的验证样本图像的不合格个数;
计算所述不合格个数与所述总数量的比率,以作为所述结构应力检测模型的准确率。
4.根据权利要求1至3任意一项所述的基于图像识别检测结构应力的方法,其特征在于,所述结构应力检测模型为基于迁移学习方法,利用所述训练样本集训练Faster-RCNN模型所得。
5.根据权利要求4所述的基于图像识别检测结构应力的方法,其特征在于,所述训练样本集中的各样本图像转换为voc2007格式数据集,以作为各样本图像的应力状态图像特征。
6.一种基于图像识别检测结构应力的装置,其特征在于,包括:
模型预构建模块,用于利用训练样本集训练神经网络模型得到结构应力检测模型,所述训练样本集包括多张处于不同应力状态、且与所述待测结构材料相同的试验构件的样本图像,每个样本图像预先标注相应应力状态下的应力值;
图像获取模块,用于获取待测结构图像;
应力值计算模块,用于将所述待测结构图像输入至所述结构应力检测模型,得到所述待测结构的应力值。
7.根据权利要求6所述的基于图像识别检测结构应力的装置,其特征在于,还包括模型验证模块,所述模型验证模块包括:
模型验证数据集获取子模块,用于获取模型验证数据集,所述模型验证数据集包括多张验证样本图像,各验证样本图像为已知实际应力值、且与所述待测结构材料相同的试验构件的图像;
预测应力值计算子模块,用于将各验证样本图像输入至所述结构应力检测模型中,得到各验证样本图像的预测应力值;
准确率计算子模块,用于基于各验证样本图像的预测应力值和实际应力值、验证样本图像总数量,计算所述结构应力检测模型的准确率;
模型重新训练子模块,用于在所述结构应力检测模型的准确率小于预设阈值,则增加所述训练样本集中的样本图像,并重新训练所述结构应力检测模型直至准确率不小于所述阈值。
8.根据权利要求7所述的基于图像识别检测结构应力的装置,其特征在于,所述准确率计算子模块为统计预测应力值和实际应力值的差值大于预设偏离值的验证样本图像的不合格个数;计算所述不合格个数与所述总数量的比率,以作为所述结构应力检测模型的准确率的模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910099745.0/1.html,转载请声明来源钻瓜专利网。