[发明专利]基于星型网络结构的三维场景数据获取方法及系统有效
申请号: | 201811520200.4 | 申请日: | 2018-12-12 |
公开(公告)号: | CN109802939B | 公开(公告)日: | 2020-04-28 |
发明(设计)人: | 李峰;徐帅斌;谢成圆;辛士庆;周元峰 | 申请(专利权)人: | 山东大学 |
主分类号: | H04L29/06 | 分类号: | H04L29/06;H04L12/44;H04J3/06 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 黄海丽 |
地址: | 250101 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 网络 结构 三维 场景 数据 获取 方法 系统 | ||
本公开公开了基于星型网络结构的三维场景数据获取方法及系统,它首先采用一种基于NTP的网络时间同步系统让各Kinect节点和中心服务器同步对时,然后借助Winsock通信技术让中心服务器给各传感器节点下达传输数据的指令,各节点利用深度图像压缩技术和传输控制协议对所采集的数据进行压缩和传输,最后中心服务器采用内存池和多线程的技术接收各节点发来的数据并协同处理。
技术领域
本公开涉及基于星型网络结构的三维场景数据获取方法及系统。
背景技术
本部分的陈述仅仅是提高了与本公开相关的背景技术,并不必然构成现有技术。
近年来,RGB-D图像获取设备(例如Kinect如HoloLen)得到了快速发展。利用RGB-D图像获取设备可以获取现实场景中的更多空间信息,进而可借助计算机视觉和人工智能技术可以对这些信息进行融合、提取等处理。
空间信息的获取对复杂三维场景的重建,特别是三维人体的重建,具有十分关键的作用。KinectFusion算法是通过移动深度相机即可实时重建出三维场景。但对于人体重建,该方法有较大的局限性,如要求被采集人体固定不动或者保持大致刚性的姿态。Hao Li等人将由KinectFusion系统重建的模型与数据库中已采集好的完整光滑人体模型进行非刚性变形,从而得到一个完整的人体模型。最近,DynamicFusion系统将KinectFusion工作推广到动态物体重建,例如,有部分遮挡的运动人脸、人体等,但这种方法在用设备获取物体信息时要求物体运动速度较慢。Helten等人根据两个Kinect顺序采集到的深度信息估计出采集人的个性化人体模型,然后用该模型跟踪深度相机所拍摄对象的实时姿态变化,但该系统在采集人背对镜头,或当身体的某些部位在Kinect的采集范围之外时会失败。
在一个复杂三维场景中,特别是包含了多个人体的大规模三维场景,重建的关键在于多视角的RGB-D图像的获取。对于更为复杂的动态场景,其重建过程则需要对多源时空数据进行实时的获取和进一步融合。但是,目前为止,还没有一个能够全方位时序化的多源深度图像采集系统。
发明内容
为了解决现有技术的不足,本公开提供了基于星型网络结构的三维场景数据获取方法及系统,其构建了一个面向复杂场景数据获取的分布式网络系统,实时感知和收集复杂三维场景的多视角RGB-D图像数据,并解决了多源RGB-D图像获取的时间一致性问题。
第一方面,本公开提供了基于星型网络结构的三维场景数据获取方法;
基于星型网络结构的三维场景数据获取方法,包括:
中心服务器向各个Kinect客户端下发数据采集和传输指令;每个Kinect客户端在统一的时间标准下采集图像数据并对所采集的图像数据进行压缩,对压缩后的每一帧图像数据附加一个全局的时间戳,结合传输控制协议将压缩后的数据传至中心服务器;
中心服务器在每接收到一个Kinect客户端的加入网络请求时,便启动一个线程接收该Kinect客户端传来的数据,使用内存池方式来接收不同Kinect客户端的图像数据,并将数据解压缩,实时显示各Kinect客户端获取的图像信息。
作为可能的一些实施方式,所述方法还包括:构建一个以中心服务器为根节点且以各个计算机终端为叶子节点的星型网络拓扑;中心服务器与各个计算机终端连接,每个计算机终端与一个Kinect传感器连接,每个计算机终端和其所相连的Kinect传感器组成一个Kinect客户端;基于网络时间协议的客户端/服务器工作模式让每个Kinect客户端与中心服务器对时同步,进而使得所有Kinect客户端在统一的时间标准下工作。
作为可能的一些实施方式,基于网络时间协议的客户端/服务器工作模式让每个Kinect客户端与中心服务器对时同步,进而使得所有的Kinect客户端在统一的时间标准下工作的具体步骤为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811520200.4/2.html,转载请声明来源钻瓜专利网。