[发明专利]一种基于双目视觉的激光定位与标注方法及产品和应用有效
申请号: | 202211576423.9 | 申请日: | 2022-12-09 |
公开(公告)号: | CN115578465B | 公开(公告)日: | 2023-03-10 |
发明(设计)人: | 蔡一诚 | 申请(专利权)人: | 幻幕谷智能科技(苏州)有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/80;G06T7/13;G06T5/00;G06T17/00;H04N9/31 |
代理公司: | 苏州国诚专利代理有限公司 32293 | 代理人: | 王会 |
地址: | 215200 江苏省苏州市吴江区东太湖生态旅游*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 双目 视觉 激光 定位 标注 方法 产品 应用 | ||
本发明公开了一种基于双目视觉的激光定位与标注方法及产品和应用,先预设被投影实物与需要投影的内容,通过双目相机实时录制视频,从视频流中找到需要被投影的物体,得到投影目标在双目相机下的图片像素坐标;通过双目相机模型进行三维重建,得到特征点的深度信息,随后计算被投影物体在世界坐标系下的全局坐标;依据平面假设,将被投影的物体的世界坐标投影至标定平面上,计算需要被投影的物体在标定平面下的二维坐标并转换成所需振镜坐标,最后进行激光投影。本发明将AR视觉定位于标注系统,将激光线精确、无接触式的投射到各种曲面表面或异形物体上,无需操作人员佩戴额外设备,能快速、精确、充满自信地定位部件,填补我国相关技术的空白。
技术领域
本发明属于激光定位与标注技术领域,具体涉及一种基于双目视觉的激光定位与标注方法及产品和应用。
背景技术
近年来,中国产业国际竞争力大幅提升,产业基础更加牢固,但总体上仍处于工业化中期,制造业主要还是靠人力堆叠为主。大型复杂工程的实施与设备的生产,往往对于人员的实施精度与配合有着严格的要求。对于大型设备或装置制造过程中的定位问题往往存在效率过低、精度不足的问题。如何利用增强现实技术(AR)解决上述问题成为人们的研究热点。在此之前,业界曾经做过相关尝试,如以谷歌为主导的AR眼镜,但由于技术不成熟,且需要较大的培训与应用成本等问题,此类AR眼镜并没有大规模商用过。
目前国内尚未有相关产品,国外以WERKLICHT®PRO、ProDirector XS2为主,价格不低于60万元,WERKLICHT®PRO产品价格高达180万元之多,对于中小企业来说使用成本高昂,而ProDirector XS2产品对齐需靶标,且不可自动跟踪投影对象,实用性和功能性有待改进。
发明内容
为解决现有技术中的问题,本发明的目的在于提供一种基于双目视觉的激光定位与标注方法及产品和应用。
为实现上述目的,达到上述技术效果,本发明采用的技术方案为:
一种基于双目视觉的激光定位与标注方法,先预设被投影实物与需要投影的内容,通过双目相机实时录制视频,从视频流中找到需要被投影的物体,得到投影目标在双目相机的每个相机下的图片像素坐标;随后通过双目相机模型进行三维重建,得到特征点的深度信息,再计算被投影物体在以激光发射口为坐标原点建立的世界坐标系下的全局坐标;随后依据平面假设,将被投影的物体的世界坐标投影至标定平面上,计算需要被投影的物体在标定平面下的二维坐标并转换成所需振镜坐标,最后进行激光投影。
进一步的,包括以下步骤:
步骤一、预设被投影实物与需要投影的内容
步骤二、视频流目标检测
双目相机的内参与畸变参数预先标定好;
投影设备启动后,通过双目相机实时收录视频流,通过对每一帧视频流的分析,判断当前视野中是否存在需要被投影的物体,待从视频流中找到需要被投影的物体,得到投影目标在双目相机的每个相机下的图片像素坐标,再计算得到需要被投影的物体在双目相机中的位置与特征点的坐标;
步骤三、双目相机深度估计
通过双目视觉技术确定需要被投影的物体的空间位置;通过双目相机模型进行三维重建,得到特征点的深度信息,结合双目相机的标定参数,即可得到需要被投影的物体的特征点在以激光发射口为坐标原点建立的世界坐标系下的全局坐标;
步骤四、标定与投影平面构建
在投影范围中选定一个基准面,并进行标定,通过双目相机的标定参数及双目相机模型计算得到标定平面上的特征点以激光发射口为坐标原点建立的世界坐标系下的三维坐标,将被投影的物体的世界坐标投影至标定平面上,最终获取在标定平面上,三维坐标至二维标定平面坐标的换算关系;
步骤五、根据标定信息计算投影坐标
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于幻幕谷智能科技(苏州)有限公司,未经幻幕谷智能科技(苏州)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211576423.9/2.html,转载请声明来源钻瓜专利网。