[发明专利]坐标转换矩阵的确定方法及装置、存储介质、电子装置在审
申请号: | 202010814107.5 | 申请日: | 2020-08-13 |
公开(公告)号: | CN111915684A | 公开(公告)日: | 2020-11-10 |
发明(设计)人: | 樊强;汪鹏飞;任宇鹏;卢维 | 申请(专利权)人: | 浙江大华技术股份有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 王晓婷 |
地址: | 310051 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 坐标 转换 矩阵 确定 方法 装置 存储 介质 电子 | ||
本发明提供了一种坐标转换矩阵的确定方法及装置、存储介质、电子装置,上述方法包括:获取标定板上多个标识信息的多个三维坐标数据,以及标定设备在移动至所述标定板的多个位置上时,所述标定设备对应的多个标定设备坐标,其中,所述多个标识信息分别对应设置在所述多个位置;根据所述多个三维坐标数据和所述多个标定设备坐标对神经网络模型进行训练,以确定所述神经网络模型对应的坐标转换矩阵,其中,所述坐标转换矩阵用于将深度相机输出的三维坐标数据以及标定设备坐标进行转换,采用上述技术方案,解决了相关技术中在3D深度相机精度不高的情况下,通过标定设备(例如,机器人)实现手眼标定的精度不高等问题。
技术领域
本发明涉及通信领域,具体而言,涉及一种坐标转换矩阵的确定方法及装置、存储介质、电子装置。
背景技术
在控制机器人与深度相机坐标系的标定过程中,通过深度相机识别检测物体,控制机器人抓取目标,但这个抓取过程会存在精度不高等问题。
相关技术中提供了一种技术方案:机器人带着标定移动多个位置,通过三个坐标系的转换求出机器人与深度相机坐标系变换关系,例如,其中:T为机器人与深度相机坐标系变换,建立多个等式可T求出矩阵;其中:每次移动一个位置即可得到相应的坐标系变换矩阵,建立等式多次可T求出矩阵,但该方案使用眼在手外标定方法,必须计算出实际的很难通过2维标定板确定相机与标定板之间的关系,就需要假定一个相机也存在一个类似的坐标系,是不合理的,且计算繁琐。
相关技术中还提供了一种技术方案,获取机器人法兰盘相对于机器人基坐标的姿态和标定板相对于3D传感器坐标系的姿态;计算3D传感器坐标系相对于机器人基坐标系的旋转矩阵;获取工件抓取点在3D传感器坐标系中的多组坐标数据,和在机器人底座基坐标系中对应的多组坐标数据;计算3D传感器坐标系和机器人基坐标系的XYZ坐标轴的转换关系,但该方案在3维点云上直接提取特征数据,对3D摄像机的采集精度要求比较高,否则误差会比较大。
针对相关技术中,在3D深度相机精度不高的情况下,通过标定设备(例如,机器人)实现手眼标定的精度不高等问题,尚未提出有效的技术方案。
发明内容
本发明实施例提供了一种坐标转换矩阵的确定方法及装置、存储介质、电子装置,以至少解决相关技术中在3D深度相机精度不高的情况下,通过标定设备(例如,机器人)实现手眼标定的精度不高等问题。
本发明实施例提供了一种坐标转换矩阵的确定方法,包括:获取标定板上多个标识信息的多个三维坐标数据,以及标定设备在移动至所述标定板的多个位置上时,所述标定设备对应的多个标定设备坐标,其中,所述多个标识信息分别对应设置在所述多个位置;根据所述多个三维坐标数据和所述多个标定设备坐标对神经网络模型进行训练,以确定所述神经网络模型对应的坐标转换矩阵,其中,所述坐标转换矩阵用于将深度相机输出的三维坐标数据以及标定设备坐标进行转换。
在本发明一可选实施例中,根据所述多个三维坐标数据和所述多个标定设备坐标对神经网络模型进行训练,以确定所述神经网络模型对应的坐标转换矩阵,包括:根据所述多个三维坐标数据和所述多个标定设备坐标对神经网络模型进行训练,得到训练结果;从所述训练结果提取所述神经网络模型对应的权重参数;根据所述权重参数确定所述坐标转换矩阵。
在本发明一可选实施例中,获取标定板上多个标识信息的多个三维坐标数据,包括:对所述标定板对应的二维图像和深度图像进行标定,以确定所述二维图像和深度图像的映射关系;根据所述映射关系确定与所述多个标识信息对应的多个三维数据。
在本发明一可选实施例中,获取标定设备在移动至所述标定板的多个位置上时,所述标定设备对应的多个标定设备坐标,包括:获取所述多个位置中至少两个位置的位置信息;根据所述至少两个位置的位置信息确定所述多个标定设备坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大华技术股份有限公司,未经浙江大华技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010814107.5/2.html,转载请声明来源钻瓜专利网。