[发明专利]一种级联注意力机制的PWC-Net的示踪粒子图像速度场分析方法在审
申请号: | 202211268651.X | 申请日: | 2022-10-17 |
公开(公告)号: | CN115496781A | 公开(公告)日: | 2022-12-20 |
发明(设计)人: | 宋旸;王雪龙 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06T7/269 | 分类号: | G06T7/269;G06T5/00;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 级联 注意力 机制 pwc net 粒子 图像 速度 分析 方法 | ||
本发明公开了一种级联注意力机制的PWC‑Net的示踪粒子图像速度场分析方法,采用监督学习的方式解决从2‑D示踪粒子图像中提取速度场的问题;该方法包括:准备示踪粒子图像数据集、搭建光流神经网络模型、读取示踪粒子图像、预处理、网络运行;网络模型是以PWC‑Net为主框架,结合注意力机制的光流神经网络,通过训练得到光流神经网络模型,其输入是两帧示踪粒子图像,输出是示踪粒子图像上每个像素点的速度矢量场。应用本发明,可以从示踪粒子图像中获取高分辨率、较高精度的速度场,同时能提高示踪粒子图像速度场分析的运算效率。
技术领域
本发明涉及采用深度学习技术实现对示踪粒子图像进行速度场提取的方法,尤其涉及一种级联注意力机制的PWC-Net的示踪粒子图像速度场分析方法。
背景技术
对于示踪粒子图像速度场的提取,目前主要采用粒子图像测速(Particle ImageVelocimetry,PIV)技术。该技术是一种非接触式瞬时全流场测量技术,其特点是突破了单点测速技术的局限性,能够在同一时刻记录全场的速度分布,提供丰富的流场空间结构以及流动特性信息。在流场测量过程中,通过向待测流场中布撒示踪粒子,由激光光源照亮待测流场区域,同时使用图像采集系统对待测流场区域进行图像采集,将得到的示踪粒子图像进行处理来得到流场的速度分布。在整个测量过程中,PIV系统均不接触流场,不会对流场产生干扰。
互相关分析法和光流法是目前主流的示踪粒子图像速度场分析算法。互相关分析法通过提取图像对的窗口(查询窗口)并进行相关计算,通过查找相关性最大的匹配方向,作为该窗口的位移矢量。光流法通过提取图像序列中携带的灰度、物体结构和物理运动等信息来计算粒子的实际位移。互相关分析法和光流法均能满足大部分简单流动场景的测量要求,然而针对复杂流动现象,这些算法在空间分辨率、应用场景、鲁棒性等方面还存在着改善空间。
对于示踪粒子图像速度场的分析问题,可以被认为是从图像中估计运动的计算机视觉问题。随着深度学习在计算机视觉任务中的成功应用,利用深度学习来估计运动已经成为一个非常重要的研究方向。然而,由于传统方法已经发展了几十年,深度学习方法并没有在各个方面都优于成熟的传统方法。因此,在示踪粒子图像速度场分析领域,深度学习方法在精确度和执行效率方面都有很大的提升空间。
发明内容
本发明的目的在于针对PIV的互相关分析法和光流法的不足,提供一种级联注意力机制的PWC-Net的示踪粒子图像速度场分析方法,该方法将深度学习与PIV技术结合起来,在保证对复杂流动的示踪粒子图像拥有较高分析精度的同时,提高计算效率。
实现本发明目的的技术解决方案为:第一方面,本发明提供一种级联注意力机制的PWC-Net的示踪粒子图像速度场分析方法,包括以下步骤:
步骤1:准备示踪粒子图像数据集;
步骤2:搭建光流神经网络并进行训练;
步骤3:读取示踪粒子图像;
步骤4:对读取的示踪粒子图像进行预处理;
步骤5:用训练好的网络模型计算速度场。
进一步的,步骤1具体为:使用公共数据集PIV_dataset训练光流神经网络,包含示踪粒子图像及其对应的速度场标签;每个用于训练的数据项中包含连续的两帧示踪粒子图像I1,I2和对应的速度矢量场ω,数据项是以下面两种方式的一种方式产生:A.由已有的速度场ω生成示踪粒子图像;B.由已有的示踪粒子图像生成速度场ω。
进一步的,所述由已有的速度场ω生成示踪粒子图像的过程为:先随机地生成一幅示踪粒子图像I,再将已有的速度矢量场ω作用于生成的示踪粒子图像I上,从而得到示踪粒子图像对I1,I2;所述示踪粒子图像I由示踪粒子图像仿真器产生,示踪粒子图像中每个粒子的形态满足如下的高斯分布:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211268651.X/2.html,转载请声明来源钻瓜专利网。