文章目录
在我们一般的图像数据的采集场景中,得到的大多是二维图像。比如手机拍照,所以大多数深度学习网络的雏形都是基于二维图像展开的工作。
但是,在某些场景下,比如医学影像CT数据,监控场景连续拍摄的视频和自动驾驶使用到的激光点云等等,多是连续的、多层的、有深度信息的数据。
此时,层内的信息,和层与层之间的层间深度信息,也是一个重要的特征信息。所以,实现三维的目标分类任务,也是必不可少的。想想很复杂,但是动手实操了,才能理解其中的内容。
本文就对三维图像分类任务展开介绍,主要是自己的实战记录过程。包括:
- 3维网络构建部分
- 3维数据构建部分
- 训练和测试
- 对基础部分进行修改,提高性能
下面一点点的进行详述。完整的代码和数据样例和处理生成方式,都放到这个链接了,自己去下载:基于Pytorch的3D立体图像分类完整代码和LIDC结节分叶征数据集
只是下载处理后的数据样例,可以去这里:LIDC-IDRI结节3D分叶征、实变征象、毛刺征数据集
一、构建3维网络
三维网络我们不熟
3D图像分类实战:从LeNet2D到LeNet3D的构建与训练
本文介绍了如何从二维的LeNet网络转换为三维LeNet网络,用于处理3D图像分类任务。首先,通过构建和测试2D LeNet模型来理解基本原理,然后将其扩展到3D LeNet模型。接着,详细展示了数据处理的过程,包括数据加载器的构建和数据可视化。最后,提供了训练和验证模型的完整流程,包括定义损失函数、优化器和训练循环。整个过程旨在帮助读者理解3D图像分类任务的实现细节。
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



