[发明专利]一种基于分布式解析的多层框架抗震实验高速视频测量方法有效
申请号: | 201810540437.2 | 申请日: | 2018-05-30 |
公开(公告)号: | CN109064499B | 公开(公告)日: | 2021-12-31 |
发明(设计)人: | 童小华;陈鹏;高飒;汪本康;谢欢;刘世杰;金雁敏;柳思聪;许雄 | 申请(专利权)人: | 同济大学 |
主分类号: | G06T7/292 | 分类号: | G06T7/292;H04L29/08 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 杨宏泰 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 分布式 解析 多层 框架 抗震 实验 高速 视频 测量方法 | ||
本发明涉及一种基于分布式解析的多层框架抗震实验高速视频测量方法,包括以下步骤:1)构建分布式立体摄影测量网络并获取结构物序列影像;2)通过分布式立体摄影测量网络,采用分布式并行处理策略,对待测结构物上的目标点进行跟踪匹配,并通过光束法整体平差解算目标点序列影像的三维空间坐标,进而计算出解算目标点的振动参数,完成测量。与现有技术相比,本发明具有减少数据处理时间、提高处理效率等优点。
技术领域
本发明涉及高速视频测量和定位识别领域,尤其是涉及一种基于分布式解析的多层框架抗震实验高速视频测量方法。
背景技术
近年来,高速摄影测量系统在近景摄影测量领域得到了广泛的应用,这使得对高速运动物体进行空间信息变化探测成为可能。在实验中接触式传感存在量程有限、增加模型质量、安装费时费力等缺点,而传统的高速摄影测量方式是通过多台相机获取影像数据,通过后处理的方式对影像数据进行处理。由于在影像获取的过程中高速相机具有高帧频、高分辨率等特点,所使用的高速相机满幅帧频达到500帧/秒,且其影像分辨率可达1280×1024像素。若以500帧/秒的帧频进行拍摄,拍摄一个20秒的工况则需要存储10000张影像,其所占内存高达12GB。这使得在后续数据处理的过程中,单台计算机在数据拷贝和序列影像跟踪匹配时将耗费大量的时间。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于分布式解析的多层框架抗震实验高速视频测量方法。
本发明的目的可以通过以下技术方案来实现:
一种基于分布式解析的多层框架抗震实验高速视频测量方法,包括以下步骤:
1)构建分布式立体摄影测量网络并对待测结构物进行拍摄;
2)根据分布式立体摄影测量网络,采用分布式并行处理的方式,对待测结构物上的目标点进行目标识别和跟踪匹配,并通过全影像光束法平差获取目标点序列影像的三维空间坐标,并解算目标点的振动参数,完成测量。
所述的步骤1)中,分布式立体摄影测量网络包括主控机、多台工控机以及与每台工控机连接的高速相机,所述的主控机通过同步控制器同时触发各高速相机进行影像获取,保证多台高速相机能够对目标物进行同步观测,所述的主控机和多台工控机通过交换机和以太网构建局域网,所述的局域网采用TCP/IP协议实现主控机和多台工控机的指令传输和数据通信。
所述的步骤1)中,采用单开间、四跨、四层的框架模型作为待测结构物,所述的框架模型安装在振动台上,并且在框架基座和每层框架的节点上布设圆形标识点作为目标点,所述的高速相机通过交向摄影方式获取振动过程中的序列影像。
所述的步骤2)具体包括以下步骤:
21)主控机通过同步控制器向各个工控机发送拍摄指令,工控机控制高速相机获取待测结构物模拟振动的序列影像,并将该序列影像存储到工控机中;
22)主控机通过向工控机发送获取初始影像指令,获取其序列影像中的初始帧,并通过椭圆圆心提取法获取初始帧中目标点的二维像素坐标,将其保存至初始点位文件中;
23)主控机将初始点位文件发送给工控机,工控机将序列影像初始帧作为基准影像,将序列影像中后续各帧影像与该基准影像进行跟踪匹配,获取后续各帧影像中各目标点的二维像素坐标,并保存至跟踪匹配结果文件中;
24)主控机获取跟踪匹配结果文件,对每个工控机中的后续各帧影像中各目标点进行三维重建,采用基于共线方程的光束法整体平差法,获取序列图像中各帧影像上目标点的三维物方空间坐标;
25)根据目标点的物方空间坐标解算目标点在振动过程中的位移、速度和加速度。
所述的步骤21)中,在高速相机获取待测结构物模拟振动的序列影像前通过张正友相机标定法对高速相机进行检校,以获取内方位元素和镜头畸变参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810540437.2/2.html,转载请声明来源钻瓜专利网。