[发明专利]一种基于Transformer的点云逐点去噪方法有效
申请号: | 202211219637.0 | 申请日: | 2022-10-08 |
公开(公告)号: | CN115293995B | 公开(公告)日: | 2023-03-24 |
发明(设计)人: | 汪俊;杨建铧;黄安义;李子宽 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/08;G06N3/0464;G06F17/16 |
代理公司: | 合肥汇融专利代理有限公司 34141 | 代理人: | 王秀芳 |
地址: | 210000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 transformer 点云逐点去噪 方法 | ||
1.一种基于Transformer的点云逐点去噪方法,其特征在于,该去噪方法包括以下步骤:
S1、创建点云多尺度数据集,点云多尺度数据集包括不同尺度的点云面片及面片中心点的真值;
S2、构建基于多尺度信息的点云去噪网络模型;
在步骤S2中,构建基于多尺度信息的点云去噪网络模型的具体过程包括以下步骤:
S21、组建多尺度信息编码器,输出5个不同尺度的[1,128]的特征矩阵;
S22、组建多尺度信息Transformer Encoder Block,多尺度信息Transformer EncoderBlock由3个Encoder结构组成,3个Encoder结构依次连接;
S23、将步骤S21中输出的5个不同尺度的[1,128]特征矩阵输入到多尺度信息Transformer Encoder Block中,3个Encoder结构输出的向量进行拼接,得到5个尺度下的[1,384]的多层次编码聚合特征向量;
S24、组建多尺度信息Transformer Decoder Block,多尺度信息Transformer DecoderBlock由3个Decoder结构组成,3个Decoder结构依次连接;
多尺度信息Transformer Decoder Block的输入由两部分构成,分别为预测输入部分和训练输入部分;
进行预测时,从预测输入部分输入S23中得到的5个尺度下的[1,384]的多层次编码聚合特征向量;
进行训练时,从训练输入部分额外输入三维点云数据的真值作为Target数据;将3个Decoder结构输出的向量进行拼接,输出5个尺度下的[1,1152]的多层次解码聚合特征向量;
S25、组建多尺度信息全局感知模块,多尺度信息全局感知模块由[1024,512,64,3]的全连接层组成;
S26、将步骤S24中的5个尺度下的[1,1152]的多层次解码聚合特征向量相加得到[1,1152]的全局特征感知向量;
S27、将全局特征感知向量输入到多尺度信息全局感知模块中输出[1,3]的位置偏移矩阵,得到点的位置偏移量;
S28、将点的位置偏移量添加到原始点中得到滤波后的点三维坐标;
S3、采用点云多尺度数据集对点云去噪网络模型进行训练;
S4、将含有噪声点的点云数据输入至点云去噪网络模型中完成点云去噪。
2.根据权利要求1所述的点云逐点去噪方法,其特征在于:在步骤S1中,创建点云多尺度数据集的具体过程包括以下步骤:
S11、获取若干三维点云模型的点云数据及其对应的真值;
S12、根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集;
S13、将五个不同尺度的邻域面片点集的数量大小统一为N得到五个矩阵构成点云多尺度数据集,对于点集的数量少于N的邻域面片,则根据步骤S12进行重采样至数量为N,对于点集的数量多于N的邻域面片,则进行下采样至点数为N。
3.根据权利要求2所述的点云逐点去噪方法,其特征在于:在步骤S12中,根据三维点云模型的点云数据进行采样得到点云中每一个点对应的五个不同尺度的邻域面片点集的具体过程包括以下步骤:
S121、采用K邻近法对点云数据中的每一个点分别获取点数为的五种不同尺度大小的邻域面片定义为K值;
S122、采用格点采样法在每个邻域面片的点云数据中选取S个采样点定义为S值;
S123、根据S值得到五个不同尺度的邻域面片K值构成邻域面片点集。
4.根据权利要求1所述的点云逐点去噪方法,其特征在于:多尺度信息编码器由5个子编码器组成,每个子编码器负责一个尺度邻域面片的特征信息提取;
子编码器由一个[64,64,128]的多层感知器和一个最大池化层组成。
5.根据权利要求1所述的点云逐点去噪方法,其特征在于:每个Encoder结构由Multi-Head Attention结构和全连接神经网络Feed Forward Network组成,每个Encoder结构后添加残差模块及归一化处理模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211219637.0/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法