训练 fast point transformer

这篇博客介绍了如何搭建并使用FastPointTransformer进行3D点云的语义分割。首先,详细阐述了安装CUDA和cuDNN的步骤,并在.bashrc中设置路径。接着,通过Anaconda创建fpt环境,克隆FastPointTransformer及依赖库MinkowskiEngine的代码。在设置好conda路径后,运行setup.sh进行构建。数据预处理部分,提到了使用S3DIS数据集,并对代码进行相应修改。训练阶段,配置了数据路径,使用wandb进行监控,并给出了训练命令。遇到内存不足问题时,可通过调整batch_size解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Fast point transformer用于3D点云的语义分割,
paper和github主页

github链接

安装cuda

首先要安装cuda,github上指定的是11.1
cuda tookit链接
cuDNN链接

cuda安装完以后记得在~/.bashrc中设置路径

export PATH=/usr/local/cuda-11.1/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-11.1/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
export CUDA_HOME=/usr/local/cuda-11.1

然后更新一下

source ~/.bashrc
安装anaconda

这个就不用多说了,去anaconda官网下一个sh文件
anaconda链接

建立fpt 环境

运行fast point transformer的conda环境是fpt
先把github上代码clone下来,
但是注意,它的thirdparty/MinkowskiEngine给的是链接,clone下来文件夹是空的,
要把MinkowskiEngine的github代码也clone下来

修改conda路径,在setup.sh的这一行

source /opt/anaconda3/etc/profile.d/conda.sh # you may need to modify the conda path.

开始build啦

bash setup.sh fpt

这一步会安装很多包,极有可能出现time out的情况。
build完成以后会出现这样的界面。
(反正挺艰难的,很多time out,还有could not find cuda runtime之类)
在这里插入图片描述

准备数据集

可以用ScannetV2 和 S3DIS,
ScannetV2数据集有1.2T,所以选了S3DIS数据集。
把它下载下来,文件夹为Stanford3dDataset_v1.2

fast point transformer用的数据为ply格式,需要预处理,
在preprocess_scannet.py中修改input 和 output path。

python src/data/preprocess_scannet.py # you need to modify the data path

处理完以后会得到s3dis_processed文件夹

接下来要把src/data下面的meta_data copy出来,
新建一个s3dis的路径,
把meta_data 和 s3dis_processed放到里面去
在这里插入图片描述

s3dis的路径要写到./config/s3dis/train_default.gin

# Data module
S3DISArea5RGBDataModule.data_root = "/root/data/s3dis" # you need to modify this according to your data.
训练

train.py运行以后会提示你要不要用wandb,如果选的用,
它会提示在wandb主页上注册一个账号,然后复制一个key过来,
具体参考quick start主页
要在train.py的开头加上这样两句,不加的话wandb会报错

import wandb

wandb.init(project="my-test-project")

然后就开始训练啦

(fpt) ~/FastPointTransformer$ python train.py config/s3dis/train_fpt.gin

在这里插入图片描述
中间保存的weight在experiments文件夹里,ckpt文件

如果出现cuda run out of memory,可以把batch_size改小一点

S3DISArea5RGBDataModule.train_batch_size = 2
【资源说明】 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 基于Point Transformers复现点云分割任务及HAQ算法进行自动量化压缩python源码+运行说明.tar 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用途:项目具有较高的学习借鉴价值,也适用于小白学习入门进阶。当然也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 4、如果基础还行,或者热爱钻研,亦可在此项目代码基础上进行修改添加,实现其他不同功能。 欢迎下载,沟通交流,互相学习,共同进步!
### 使用 Transformer 模型进行点云数据处理的方法和实现 #### 方法概述 Transformer 模型最初被设计用于自然语言处理领域,其核心机制是自注意力(Self-Attention),能够捕捉输入序列中任意两部分之间的关系。近年来,研究人员将其扩展至点云数据处理领域,取得了显著成果。以下是几种常见的方法及其技术细节: --- #### 1. **点云上采样** PU-Transformer 是首个将 Transformer 应用于点云上采样的工作[^1]。它通过以下两种创新模块解决了传统方法的局限性: - **Positional Fusion (PosFus) 模块**:该模块专注于提取与局部位置相关的信息,从而更好地保留点云的空间分布特性。 - **Shifted Channel Multi-head Self-Attention (SC-MSA)**:此模块改进了传统的多头自注意力机制,增强了不同 head 输出之间的关联性。 实验结果显示,PU-Transformer 能够有效恢复丢失的几何信息并生成高质量的稠密点云。 ```python import torch from pu_transformer import PU_Transformer # 初始化模型 model = PU_Transformer() # 输入稀疏点云 sparse_point_cloud = torch.randn(1, 1024, 3) # 上采样操作 dense_point_cloud = model(sparse_point_cloud) print(dense_point_cloud.shape) # 输出更密集的点云 ``` --- #### 2. **3D 语义分割** Fast Point Transformer 提供了一种高效的解决方案,适用于大规模点云数据的实时处理[^2]。它的主要特点是: - **高效性**:相比其他方法,推理速度快达 129 倍。 - **轻量化设计**:引入新型轻量级自注意力层,降低了计算复杂度。 - **灵活性**:支持动态调整体素尺寸以满足不同场景的需求。 代码示例如下: ```python from fast_point_transformer import FastPointTransformer # 加载预训练模型 segmentation_model = FastPointTransformer(pretrained=True) # 输入点云数据 input_points = torch.rand((1, 8192, 3)) # 执行语义分割 predictions = segmentation_model(input_points) print(predictions.shape) # 输出每一点对应的类别预测 ``` --- #### 3. **点云降噪** 在 PCT(Point Cloud Transformer)的工作中,作者进一步优化了 Input Embedding 模块,使其不仅能够学习全局特征,还能捕获局部信息[^3]。这种改进对于去除噪声点尤其重要,因为局部上下文有助于区分真实点和异常值。 具体而言,PCT 引入了 Neighbor Embedding 技术,模仿 PointNet++ 和 DGCNN 的局部信息聚合策略。这种方法提高了模型对细粒度结构的理解能力。 ```python from pct import PointCloudTransformer # 实例化去噪模型 denoising_model = PointCloudTransformer(task="denoise") # 输入含噪声的点云 noisy_point_cloud = torch.tensor([[...]]) # 替换为实际数据 # 处理后的干净点云 clean_point_cloud = denoising_model(noisy_point_cloud) print(clean_point_cloud.shape) # 输出净化后的点云 ``` --- #### 总结 上述三种方法展示了 Transformer 在点云数据处理中的广泛应用潜力。无论是上采样、语义分割还是降噪任务,Transformer 都凭借强大的建模能力和灵活的设计思路成为研究热点。 ---
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝羽飞鸟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值