PointNet/Pointnet++训练及测试

本文指导读者安装Anaconda,创建PyTorch环境,并通过PointNet实现形状分类、部件分割和场景语义分割。涉及步骤包括安装cloudcompare、meshlab,克隆GitHub项目,配置数据集和运行关键脚本。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、安装Anaconda
source ~/.bashrc更新环境变量
然后可以输入conda list 测试是否成功

2、创建PyTorch环境
conda create -n myPytorch python=3.7
conda activate mypytorch

conda install pytorch1.1.0 torchvision0.3.0 -c pytorch

3、安装cloudcompare软件
snap install cloudcompare

安装meshlab软件
meshlab2020.07-linux.AppImage

4、复制pointnet项目
git clone github网址

5、完成形状分类任务
下载数据集:modelnet40_normal_resampled
解压后放在data文件夹下

python train_cls.py --model pointnet2_cls_msg --normal --log_dir pointnet2_cls_msg

使用法向量信息

若显存溢出,设置batch_size

python train_cls.py --model pointnet2_cls_msg --normal --log_dir pointnet2_cls_msg batch_size 8

对训练好的网络进行测试

python test_cls.py --normal --log_dir pointnet2_cls_msg

6、物体部件分割
使用数据集:shapenetcore_partanno_segmentation_benchmark_v0_normal
将数据集解压到data文件夹
训练命令:

python train_partseg.py --model pointnet2_part_seg_msg --normal --log_dir pointnet2_part_seg_msg

测试命令:

python test_partseg.py --normal --log_dir pointnet2_part_seg_msg

7、场景语义分割

数据集:Stanford3dDataset_v1.2_Aligned_Version
解压到:
data/s3dis/Stanford3dDataset_v1.2_Aligned_Version/

训练:

cd data_utils
python collect_indoor3d_data.py

处理后的数据保存到

data/stanford_indoor3d/

执行训练命令:

python train_semseg.py --model pointnet2_sem_seg --test_area 5 --log_dir
pointnet2_sem_seg

可视化结果保存在

log/sem_seg/pointnet2_sem_seg/visual/

执行测试命令:

python test_semseg.py --log_dir pointnet2_sem_seg --test_area 5 --visual
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值