
PyTorch
文章平均质量分 84
pyTorch
酒酿小圆子~
这个作者很懒,什么都没留下…
展开
-
PyTorch从零开始实现LSTM
为训练函数,可以参考。原创 2024-07-01 20:57:03 · 501 阅读 · 0 评论 -
PyTorch之LeNet、AlexNet、VGG、NiN、GoogleNet基本原理及代码实现
Inception块中可以自定义的超参数是每个层的输出通道数,我们以此来控制模型复杂度。原创 2024-06-30 22:18:13 · 888 阅读 · 0 评论 -
PyTorch读写模型(state_dict、torch.save、torch.load)
在PyTorch中,state_dict 是一个简单的python的字典对象,将每一层与它的对应参数建立映射关系。(如model的每一层的weights及bias等)注意:只有具有可学习参数的层(卷积层、线性层等)才有state_dict中的条目。优化器(optim)也有一个state_dict,其中包含关于优化器状态以及所使用的超参数的信息。原创 2024-06-30 16:31:42 · 1211 阅读 · 0 评论 -
PyTorch之nn.Module与nn.functional用法区别
其实这两种方法都是使用relu激活,只是使用的场景不一样,F.relu()是函数调用,一般使用在foreward函数里。而nn.ReLU()是模块调用,一般在定义网络层的时候使用。在上述示例中,我们首先导入nn.functional 模块,然后在网络的forward 方法中使用F.relu 函数作为激活函数。的主要优势是它的计算效率和灵活性,因为它允许你以函数的方式直接调用这些操作,而不需要创建额外的层。当用print(net)输出时,nn.ReLU()会有对应的层,而F.ReLU()是没有输出的。原创 2024-06-30 15:14:32 · 1312 阅读 · 0 评论 -
PyTorch之nn.Module、nn.Sequential、nn.ModuleList使用详解
nn.functional 中的函数没有可学习的参数,与nn.Module 中的层不同。其实这两种方法都是使用relu激活,只是使用的场景不一样,F.relu()是函数调用,一般使用在foreward函数里。在上述示例中,我们首先导入nn.functional 模块,然后在网络的forward 方法中使用F.relu 函数作为激活函数。的主要优势是它的计算效率和灵活性,因为它允许你以函数的方式直接调用这些操作,而不需要创建额外的层。是PyTorch中一个重要的模块,它包含了许多用于构建神经网络的函数。原创 2024-06-30 11:35:14 · 4027 阅读 · 0 评论 -
Ubuntu 22.04安装cuda及Pytorch教程
在PyTorch中使用CUDA,。: 首先,确保你的GPU支持CUDA。你可以在官方CUDA支持列表上查找你的GPU型号。或者直接命令行nvidia-smi进行查看。: 下载并安装与你的GPU型号匹配的CUDA Toolkit。你可以从NVIDIA官网下载。在安装期间,可以选择安装适用于你的系统的CUDNN库。: cuDNN是NVIDIA的深度神经网络库,可以加速深度学习任务。在CUDNN下载页面下载适用于你的CUDA版本的cuDNN,并按照安装说明进行安装。原创 2024-06-06 14:49:26 · 7888 阅读 · 4 评论 -
PyTorch模型保存与加载
文章目录1.什么是状态字典:state_dict?2. 保存和加载推理模型2.1 保存/加载state_dict(推荐使用)2.2 保存/加载完整模型3. 保存和加载 Checkpoint 用于推理/继续训练4. 在一个文件中保存多个模型5. 使用在不同模型参数下的热启动模式6. 通过设备保存/加载模型6.1 保存到 CPU、加载到 CPU6.2 保存到 GPU、加载到 GPU6.3 保存到 CPU,加载到 GPU6.4 保存 torch.nn.DataParallel 模型当保存和加载模型时,需要熟悉三转载 2022-03-31 15:49:22 · 2432 阅读 · 0 评论 -
Ubuntu 16.04下基于Anaconda安装cuda、cudnn及Pytorch
Anaconda的基本使用见之前的博客:Ubuntu 16.04下Anaconda的安装及使用创建虚拟环境pytorch_gpu,并激活该环境conda create --name pytorch_gpu python=3.6source activate pytorch_gpu1. CUDA和cuDNN背景知识(1)什么是CUDACUDA(ComputeUnified Device Architecture),是显卡厂商NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题原创 2021-07-13 16:28:31 · 721 阅读 · 2 评论 -
torch.utils.data.DataLoader()的使用
数据加载器,结合了数据集和取样器,并且可以提供多个线程处理数据集。在训练模型时使用到此函数,用来把训练数据分成多个小组,此函数每次抛出一组数据。直至把所有的数据都抛出。就是做一个数据的初始化。下面看一个简单的使用实例:""" 批训练,把数据变成一小批一小批数据进行训练。 DataLoader就是用来包装所使用的数据,每次抛出一批数据"""import torchimport torch.utils.data as DataBATCH_SIZE = 5x = torch.l原创 2020-07-28 10:23:18 · 3460 阅读 · 0 评论 -
PyTorch入门一:卷积神经网络实现MNIST手写数字识别
PyTorch官方教程(中文版):http://pytorch123.com《动手学深度学习》PyTorch版:https://github.com/ShusenTang/Dive-into-DL-PyTorch1. pytorch介绍PyTorch是Torch7团队开发的,与Torch的不同之处在于PyTorch使用了Python作为开发语言,同样说明它是一个以Python优先的深度学习框架,它不仅能够实现强大的GPU加速,同时还支持动态神经网络,这是TensorFlow等很多主流框架不支持的。而转载 2020-07-23 17:06:21 · 4354 阅读 · 5 评论 -
PyTorch入门二:LSTM实现MNIST手写数字识别
https://blog.youkuaiyun.com/winycg/article/details/88937583LSTM(Long Short Term Memory),长短时记忆网络,主要用于传统RNN网络所面临的梯度消失/爆炸等问题。关于LSTM的基本原理可以参考我的另外一篇博客:RNN神经网络...原创 2020-07-23 19:33:10 · 3280 阅读 · 3 评论