
pytorch
文章平均质量分 76
pytorch
byxdaz
十年以上C/VC++开发经验。熟悉网络编程、数据库编程、数字图像处理与识别,熟悉软件工程和项目管理,熟悉linux C/C++开发。
展开
-
LabelImg使用指南
YOLO 格式要求坐标归一化(0~1),确认是否选错格式。文件(适合 Faster R-CNN 等模型)。确保勾选了正确的格式(YOLO/VOC)。:标注列表(显示已标注的框和类别)。:在弹出的对话框中输入类别名(如。:保存、切换图像、标注工具等。标注文件会自动保存到同名的。检查输出目录是否有写入权限。目录下(需提前创建)。,拖动鼠标绘制边界框。原创 2025-04-04 18:52:11 · 333 阅读 · 0 评论 -
PyTorch标注工具
在 PyTorch 生态中,训练目标检测模型(如 YOLOv5、Faster R-CNN)需要先对数据进行标注。支持导出 COCO 格式(需转换后供 PyTorch 使用)。导出 JSON 格式(可转换为 COCO/YOLO)。:图形化标注工具(支持 YOLO/VOC 格式)快捷键操作高效(W:画框,A/D:切换图片)。支持视频帧标注和自动预标注(需部署服务器)。:需要精细标注(如医学图像、不规则物体)。内置数据增强(旋转、裁剪、亮度调整)。支持多边形标注(适合不规则物体)。:中小规模数据集,快速标注。原创 2025-04-04 18:44:21 · 388 阅读 · 0 评论 -
Google Colab上使用 GPU训练模型
Google Colab 是由 Google 提供的云端 Jupyter Notebook 开发环境,自 2017 年推出以来已成为机器学习、数据科学和教育领域的重要工具。原创 2025-04-04 18:09:29 · 342 阅读 · 0 评论 -
PyTorch模型 train() 和 eval() 模式详解
在 PyTorch 中, 和 是模型两种关键的工作模式,正确使用它们对模型训练和推理至关重要。2. 验证/测试阶段 三、关键层的行为差异1. Dropout 层2. BatchNorm 层四、实现原理PyTorch 通过模块的 属性控制行为:五、最佳实践 模式切换必须显式调用: 与torch.no_grad()配合使用: 自定义层的模式感知: 特殊情况处理: 六、常见错误排查 忘记切换模式原创 2025-04-04 08:48:07 · 358 阅读 · 0 评论 -
PyTorch中的Flatten
"""将通道维度移到最后的展平层"""# 输入形状: [B, C, H, W]原创 2025-04-04 08:46:55 · 217 阅读 · 0 评论 -
PyTorch优化器
PyTorch 提供了多种优化算法用于神经网络的参数优化。以下是对 PyTorch 中主要优化器的全面介绍,包括它们的原理、使用方法和适用场景。原创 2025-04-03 20:59:55 · 459 阅读 · 0 评论 -
PyTorch中的损失函数
计算L1损失# 计算特殊惩罚项# 组合损失。原创 2025-04-03 20:48:12 · 450 阅读 · 0 评论 -
PyTorch中如何向已有预训练模型新增层
在 PyTorch 的预训练模型(如 、、 等)中, 通常表示模型的最后一层全连接层(Fully Connected Layer),也就是分类头(Classifier Head)。它的作用是将提取的特征映射到最终的分类结果上。不同模型的分类头名称可能不同(如 ),需通过 确认。 是 "Fully Connected" 的缩写,即全连接层。在分类任务中,这一层的作用是将网络提取的全局特征转换为类别概率分布。例如: 的 默认输出 1000 维(对应 ImageNet 的 1000 类)。如果改成自己的任务(原创 2025-04-02 23:22:52 · 734 阅读 · 0 评论 -
PyTorch 激活函数
激活函数是神经网络中至关重要的组成部分,它们为网络引入了非线性特性,使得神经网络能够学习复杂模式。PyTorch 提供了多种常用的激活函数实现。数学表达式:PyTorch实现:特点:计算简单高效解决梯度消失问题(正区间)可能导致"神经元死亡"(负区间梯度为0),ReLU 在输入为负时输出恒为 0,导致反向传播中梯度消失,相关权重无法更新14。若神经元长期处于负输入状态,则会永久“死亡”,失去学习能力。示例:2. LeakyReLU数学表达式:PyTorch实现:特点:解决了ReLU原创 2025-04-02 13:37:25 · 550 阅读 · 0 评论 -
pytorch中Dropout
Dropout 是一种常用的正则化技术,用于防止神经网络过拟合。PyTorch 提供了nn.Dropout层来实现这一功能。原创 2025-04-02 13:10:34 · 279 阅读 · 0 评论 -
PyTorch 中池化层MaxPool2d
在 PyTorch 中,池化层(Pooling Layer)是卷积神经网络(CNN)中的重要组成部分,主要用于。PyTorch 提供了多种池化操作,包括最大池化、平均池化、自适应池化等。:自动调整输出尺寸,适用于输入尺寸不固定的情况。:提取局部区域的最大值,保留最显著的特征。:计算局部区域的平均值,适用于平滑特征。:常用于 CNN 最后一层,减少参数量。:提取最显著特征,适用于分类任务。:平滑特征,适用于回归或语义分割。:适用于输入尺寸不固定的情况。:图像分类、目标检测等。:图像分类、语义分割等。原创 2025-04-02 11:16:36 · 307 阅读 · 0 评论 -
PyTorch中卷积层torch.nn.Conv2d
卷积核参数共享,大大减少参数量可保持输入输出尺寸相同 (PyTorch 1.9+)通常配合BatchNorm和ReLU使用使用可查看层结构nn.ReLU(),原创 2025-04-02 11:10:43 · 304 阅读 · 0 评论 -
PyTorch中Linear全连接层
在 PyTorch 中,是一个实现全连接层(线性变换)的模块,用于神经网络中的线性变换操作。它的数学表达式为:其中:xx 是输入数据WW 是权重矩阵bb 是偏置项yy 是输出数据。原创 2025-04-02 11:01:33 · 336 阅读 · 0 评论 -
torchvision.transforms数据预处理和增强模块
是 PyTorch 计算机视觉任务中最重要的,它提供了丰富的图像变换方法,能够将原始数据转换为适合神经网络训练的格式。原创 2025-04-01 10:04:18 · 785 阅读 · 0 评论 -
PyTorch之torchvision
支持INT8量化(原创 2025-04-01 09:38:30 · 422 阅读 · 0 评论 -
PyTorch中torch、torchvision、torchaudio
是一个开源的深度学习框架,而是其官方扩展库,分别专注于计算机视觉和音频处理。它们共同构成了 PyTorch 的生态系统,适用于不同的 AI 任务。,提供张量计算、自动微分和神经网络构建功能。动态计算图(动态图优先)GPU 加速(CUDA 支持)自动微分(autograd丰富的神经网络层(nn.Module,提供数据集、预训练模型和图像处理工具。MNISTCIFARImageNetCOCO等ResNetVGGViT等RandomCropNormalize等,支持语音识别、音频增强等任务。VCTK。原创 2025-04-01 09:21:55 · 300 阅读 · 0 评论 -
可视化工具TensorBoard
TensorBoard 是一款用于机器学习实验可视化的工具,支持跟踪训练指标、分析模型结构及调试数据分布。原创 2025-03-26 21:01:27 · 320 阅读 · 0 评论 -
PyTorch图像预处理--Compose
是 PyTorch 中用于图像预处理的核心工具,可将多个图像变换操作组合成一个顺序执行的流水线。原创 2025-03-26 20:53:59 · 416 阅读 · 0 评论 -
PyTorch处理数据--Dataset和DataLoader
在 PyTorch 中,Dataset和DataLoader是处理数据的核心工具。它们的作用是将数据高效地加载到模型中,支持批量处理、多线程加速和数据增强等功能。原创 2025-03-26 20:50:28 · 712 阅读 · 0 评论 -
PyTorch中的Tensor
PyTorch中的Tensor 是核心数据结构,类似于 NumPy 的多维数组,但具备 GPU 加速和自动求导等深度学习特性。原创 2025-03-26 18:15:57 · 708 阅读 · 0 评论