[发明专利]基于Transformer和自注意力的点云序列生成方法在审
申请号: | 202211722550.5 | 申请日: | 2022-12-30 |
公开(公告)号: | CN115880780A | 公开(公告)日: | 2023-03-31 |
发明(设计)人: | 尹梦晓;马伟钊;韩亚振;谢敏 | 申请(专利权)人: | 广西大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/82;G06N3/08;G06N3/0464 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 冯炳辉 |
地址: | 530004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于Transformer和自注意力的点云序列生成方法,包括:1)从数据集中选取点云序列、表示这个序列的点云形状标签和动作标签输入到PointEncode,得到特征空间的点云序列;2)使用TransformerEncoder得到点云序列隐向量;3)将隐向量输入TransformerDecoder中得到重建的特征空间点云序列,再使用PointDecoder将其还原成点云序列,进行训练;4)从标准高斯分布中采样隐向量,依次使用训练好的TransformerDecoder和PointDecoder将隐向量生成为点云序列。本发明能够在有限的光学动捕数据下训练,生成更多形状合理且真实的光学动捕数据,且取得比以往方法更好的结果。 | ||
搜索关键词: | 基于 transformer 注意力 序列 生成 方法 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广西大学,未经广西大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202211722550.5/,转载请声明来源钻瓜专利网。
- 上一篇:一种仿梭织单面机针织面料及其制作方法
- 下一篇:在设备之间复制和粘贴
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法