[发明专利]一种基于混合现实的虚拟构件显示方法、装置及设备在审
申请号: | 202310268228.8 | 申请日: | 2023-03-17 |
公开(公告)号: | CN116486050A | 公开(公告)日: | 2023-07-25 |
发明(设计)人: | 刘大冰;胡笳;田晶 | 申请(专利权)人: | 北京市建筑设计研究院有限公司 |
主分类号: | G06T19/00 | 分类号: | G06T19/00;G06F16/904;G01B11/02;G01B11/00;G01B21/02;G01B21/00;G01C15/00 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 熊飞雪 |
地址: | 100045 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 混合 现实 虚拟 构件 显示 方法 装置 设备 | ||
本发明公开了一种基于混合现实的虚拟构件显示方法、装置及设备,方法包括:获取第一定位器对应的第一位置;当第一定位器依次发出第一信号、第二信号,以及第三信号后,获取第一终端设备的多个传感器中每一个传感器分别采集第一信号的第一采集时刻、采集第二信号的第二采集时刻,以及采集第三信号的第三采集时刻;获取扫描信号对应的角速度,以及每一个传感器到第一定位器的距离;基于第一位置,所有的第一采集时刻,所有的第二采集时刻,所有的第三采集时刻,角速度以及每一个传感器到第一定位器的距离,确定第一终端设备的第二位置;获取第二位置的预设范围内包含的所有虚拟构件,并对所有的虚拟构件进行渲染和显示。
技术领域
本发明涉及计算机技术领域和测绘领域领域,具体涉及一种基于混合现实的虚拟构件显示方法、装置及设备。
背景技术
一般在建筑、造船、大型机械设备组装等的现场施工过程中,二维的施工图纸是重要的施工参考。工作人员一般通过测量仪器进行实地打点测量的方式确保施工位置和建筑尺寸与施工图纸一致。其具体实现过程操作繁琐,无法产生所见即所得的真实感,且通过点与实际物体间的位置关系判断结果的准确性困难,从而使导致施工效率降低,无法实现现场预先展示效果为基础进行准确判断。
那么,如何能够实现所见即所得的预先展示效果、提高施工效率,为操作人员提供快速准确的判断依据,成为目前需要解决的问题。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中施工效率较低的缺陷,从而提供一种基于混合现实的虚拟构件显示方法、装置及设备。
第一方面,本发明提供了一种基于混合现实的虚拟构件显示方法,方法由第一终端设备执行,包括:
获取第一定位器对应的第一位置;当第一定位器依次发出第一信号、第二信号,以及第三信号后,获取第一终端设备的多个传感器中每一个传感器分别采集第一信号的第一采集时刻、采集第二信号的第二采集时刻,以及采集第三信号的第三采集时刻,其中,第一信号为同步信号,第二信号和第三信号属于第一定位器发出的不同轴向的扫描信号;获取扫描信号对应的角速度,以及每一个传感器到第一定位器的距离;基于第一位置,所有的第一采集时刻,所有的第二采集时刻,所有的第三采集时刻,角速度以及每一个传感器到第一定位器的距离,确定第一终端设备的第二位置;获取第二位置的预设范围内包含的所有虚拟构件,并对所有的虚拟构件进行渲染和显示。
结合第一方面,在第一方面的第一实施例中,第一位置由第二定位器对第一定位器定位得到。
结合第一方面,在第一方面的第二实施例中,基于第一位置,所有的第一采集时刻,所有的第二采集时刻,所有的第三采集时刻,角速度以及每一个传感器到第一定位器的距离,确定第一终端设备的第二位置,包括:
基于第一传感器对应的第一采集时刻、第一传感器对应的第二采集时刻和第一传感器对应的第三采集时刻和角速度,确定第一传感器相对于第一定位器的偏移角度,其中,第一传感器为第一终端设备包含的多个传感器中的任一个;基于第一位置、第一传感器相对于第一定位器的偏移角度、以及第一传感器到第一定位器的距离,确定第一传感器对应的位置;根据每一个传感器对应的位置确定第一终端设备的第二位置。
结合第一方面,在第一方面的第三实施例中,在对所有的虚拟构件进行渲染和显示之后,还包括:
获取第二终端设备发送的第三位置和第二终端设备选择的显示模式,第三位置为第二终端设备所指示的目标对象对应的位置;获取第三位置对应的虚拟构件,并将第三位置对应的虚拟构件按照选择的显示模式进行显示。
第二方面,本发明提供了一种基于混合现实的虚拟构件显示方法,方法由第二终端设备执行,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市建筑设计研究院有限公司,未经北京市建筑设计研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310268228.8/2.html,转载请声明来源钻瓜专利网。