[发明专利]一种基于神经网络的空间目标点云配准方法及设备在审
申请号: | 202210391138.3 | 申请日: | 2022-04-14 |
公开(公告)号: | CN114972454A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 张艳;张鑫;马非凡;黄坤 | 申请(专利权)人: | 中山大学·深圳;中山大学 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 刘思言 |
地址: | 518107 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 空间 目标 点云配准 方法 设备 | ||
本申请公开一种基于神经网络的空间目标点云配准方法及设备,通过获取待配准目标对象的目标点云数据集,然后利用预训练的点云配准神经网络模型,处理目标点云数据集,以得到待配准目标对象的目标运动真值。其中,点云配准神经网络模型为,利用标注有运动真值标签的训练对象的点云数据样本集训练得到,目标运动真值为待配准目标对象在不同视角下的相对运动,最后根据目标运动真值确定待配准目标对象的架构,完成空间目标点云的配准过程。该方案可以利用训练好的点云配准神经网络模型得到待配准目标对象准确的目标旋转矩阵和目标平移向量,可以降低点云配准的误差,提高配准率。
技术领域
本申请涉及三维重构与计算机视觉领域,具体涉及一种基于神经网络的空间目标点云配准方法及设备。
背景技术
近年来,许多国家和地区都在三维重构与计算机视觉领域开展研究,具体涉及开展天基空间目标探测与识别系统的研究,该系统能够结合光学系统和雷达系统的优势,利用点云配准的方法,对目标进行高精度定轨与高分辨率成像,从而得到目标的架构。
现有的点云配准方法会根据各帧点云数据及相邻的每两帧点云数据之间的姿态变换参数,对各帧点云数据进行累积,而在配准相邻的每两帧点云数据时,可能会由于存在噪声数据等原因而出现配准误差问题,导致配准结果不准确。
发明内容
有鉴于此,本申请提供了一种基于神经网络的空间目标点云配准方法及设备,用于解决现有的点云配准方法由于存在噪声数据等原因而出现配准误差,导致配准结果不准确的问题。
为实现以上目的,现提出的方案如下:
第一方面,一种基于神经网络的空间目标点云配准方法,包括:
获取待配准目标对象的目标点云数据集;利用预训练的点云配准神经网络模型,处理所述目标点云数据集,以得到待配准目标对象的目标运动真值,其中,所述点云配准神经网络模型为,利用标注有运动真值标签的训练对象的点云数据样本集训练得到,所述目标运动真值为所述待配准目标对象在不同视角下的相对运动;根据所述目标运动真值确定所述待配准目标对象的架构,完成空间目标点云的配准过程。
优选地,所述利用预训练的点云配准神经网络模型,处理所述目标点云数据集,以得到待配准目标对象的目标运动真值,包括:利用所述点云配准神经网络模型的点云特征提取模块,确定所述目标点云数据集的特征向量;利用所述点云配准神经网络模型的点云匹配点预测模块,对所述特征向量进行权重预测,得到目标点云数据的权重向量;利用所述点云配准神经网络模型的目标运动真值确定模块,将所述权重向量与预设的目标函数相乘,得到第一目标函数,并构建第二目标函数,根据所述第一目标函数和第二目标函数得到待配准目标对象的目标运动真值。
优选地,所述点云匹配点预测模块包括编码模块和解码模块;所述编码模块包括依次连接的三个卷积层,所述每个卷积层包括依次连接的一个卷积操作单元、一个批量归一化操作单元和一个残差单元;所述解码模块包括依次连接的两个反卷积模块和一个随机失活模块,所述每个反卷积模块包括依次连接的一个反卷积操作单元、一个批量归一化操作单元和一个残差单元;所述随机失活模块包括互相连接的一个反卷积操作单元和一个随机失活单元。
优选地,所述获取待配准目标对象的目标点云数据集,包括:
获取所述待配准目标对象在多个不同视角下的目标点云数据,并将所述多个不同视角下的目标点云数据中的每两个视角下的目标点云数据作为一组目标点云数据,得到多组目标点云数据并组成目标点云数据集。
优选地,所述目标运动真值包括目标旋转矩阵和目标平移向量,所述根据所述第一目标函数和第二目标函数得到待配准目标对象的目标运动真值,包括:将一组目标点云数据中的两个视角的点云分别定义为pi和qj,且(i,j)∈J,将所述权重向量定义为w(i,j),将所述第一目标函数定义为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学·深圳;中山大学,未经中山大学·深圳;中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210391138.3/2.html,转载请声明来源钻瓜专利网。