[发明专利]基于Transformer的点云几何压缩装置及方法在审
申请号: | 202211095139.X | 申请日: | 2022-09-05 |
公开(公告)号: | CN115589492A | 公开(公告)日: | 2023-01-10 |
发明(设计)人: | 丁丹丹;刘舸昕;章骏腾;马展 | 申请(专利权)人: | 杭州师范大学;南京大学 |
主分类号: | H04N19/597 | 分类号: | H04N19/597;H04N19/91;H04N19/42;H04N19/44;H04N19/30;H04N19/96;H04N13/161;G06V10/44;G06V10/764;G06V10/77 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
地址: | 311121 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了基于Transformer的点云几何压缩装置及方法。该装置基于自动编码器结构,分为编码端和解码端两个部分。其中编码端包括下采样模块,Transformer特征提取模块,解码端包括对应的上采样模块、Transformer模块以及点云细化模块。该装置通过Transformer特征提取模块中的KNN算法以及局部注意力机制,获取每个点与周围K个点之间的联系,在编码端增强特征,在解码端恢复特征,帮助细化模块预测更准确的概率,提升点云重建质量,同时也降低了Transformer模块的计算复杂度。 | ||
搜索关键词: | 基于 transformer 几何 压缩 装置 方法 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州师范大学;南京大学,未经杭州师范大学;南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202211095139.X/,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法