Pytorch学习
文章平均质量分 83
奶油松果
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch学习 - 保存模型和重新加载
Pytorch学习 - 保存和加载模型1. 3个函数2. 模型不同后缀名的区别3. 保存和重载模型参考资料:Pytorch官方文档链接某博客1. 3个函数torch.save() : 讲一个序列化对象保存到磁盘中。使用python的pickle工具。 模型 (model)、张量 (tensor) 和各种对象的字典 (dict) 都可以用这个函数保存。torch.load() :将pickle对象文件反序列化到内存中,也便于将数据加载到设备中torch.nn.Module.load_state原创 2022-02-26 15:59:19 · 1534 阅读 · 0 评论 -
Pytorch学习-task7:Pytorch池化层和归一化层
Pytorch学习-task7:Pytorch池化层和归一化层torch.nn中提供的Pooling Layers池化层1. MaxPool 最大池化操作2. MaxUnpool - MaxPool1d计算部分反转?3. AvgPool练习归一化层参考链接1:参考链接2:参考链接3:torch.nn中提供的Pooling Layers池化层1. MaxPool 最大池化操作torch.nn.MaxPool1d(kernel_size, stride=None, padding=原创 2021-12-13 17:53:06 · 2689 阅读 · 0 评论 -
Pytorch学习 - Task5 PyTorch卷积层原理和使用
Pytorch学习 - Task5 PyTorch卷积层原理和使用1. 卷积层介绍 (torch.nn下的)1. class torch.nn.Conv1d(in_channels,out_channels,kernel_size,stride=1,padding=0dilation=1,groups=1,bias=True) 一维卷积层2. class torch.nn.Conv2d() 二维卷积层3. class torch.nn.Conv3d() 三维卷积层三级目录参考链接1:参考链接2:1原创 2021-12-03 16:55:27 · 1135 阅读 · 0 评论 -
Pytorch学习-tensorboard的使用
Pytorch学习-tensorboard的使用1 Tensorboard简介运行机制安装及测试2 SummaryWriter实例的使用教程(1)初始化summaryWriter的方法(2)不同类型数据的记录1)数字 scalar使用样例2) 直方图 histogram使用样例3) 运行图 graph !!官方样例4) 图片 image (pillow库支持)5) 嵌入向量embedding1 Tensorboard简介参考链接1安装:参考链接2使用:TensorBoard:TensorFlow中强原创 2021-12-02 15:01:00 · 2347 阅读 · 2 评论 -
Pytorch学习-torch.max()和min()深度解析
Pytorch学习-torch.max和min深度解析max的使用dim参数理解二维张量使用max()三维张量使用max()小例子max的使用参考链接:参考链接:对于tensorA和tensorB:1)torch.max(tensorA) 返回tensor中的最大值2)torch.max(tensorA,dim) 返回指定维度的最大数和对应下标3)torch.max(tensorA,tensorB) 比较tensorA和tensorB相对较大的元素dim参数理解搞清楚dim参数第0维原创 2021-12-02 11:00:31 · 1785 阅读 · 0 评论 -
张量维度的理解
张量维度的理解介绍一维张量二维张量三维张量四维张量 (仅用于理解,坐标系已经不再适用)如何判断张量的batch数、行、列、深度小结:介绍参考链接1:参考链接2:张量的阶数有时也称维度,或者轴axis。比如矩阵[[1,2],[3,4]],是一个二维张量。沿着第0个轴可以看到[1,2],[3,4]两个向量沿着第1个轴可以看到[1,3],[2,4]两个向量。图示:一维张量const1 = tf.constant([1,2,3,4],tf.float16)二维张量# 三行四列co原创 2021-12-02 10:18:06 · 12869 阅读 · 6 评论 -
Pytorch使用过程错误与解决 -汇总~
Pytorch使用过程错误与解决error1:关键词 copy tensorerror2:关键词 张量相加error3:关键词 nn.Linear()的使用报错1:报错代码:错误原因:报错2:报错代码:错误原因:解决办法错误原因:正确代码error1:关键词 copy tensor报错信息:UserWarning: To copy construct from a tensor, it is recommended to use sourceTensor.clone().detach() or sou原创 2021-11-30 19:54:45 · 2510 阅读 · 0 评论 -
Pytorch学习
Pytorch学习 -- 深度学习一级目录二级目录三级目录一级目录二级目录三级目录Pytorch必须在init初始化网络结构 forward中做feed forward网络的前馈创建网络结构代码待更新知识点学习:张量tensor的各种操作.argmax() add() 等等 linknn.module 父类nn.Sequential()nn.module中的各层 nn.Linear()激活函数 nn.ReLU() nn.LeackyReLU() nn.ELU() 等等损失函数原创 2021-11-30 10:46:02 · 376 阅读 · 0 评论 -
Pytorch学习:Task4 PyTorch激活函数原理和使用
参考链接1参考链接21.torch.nn.ELU Sigmoid和ReLU结合体,具有左侧软饱和性数学表达式:图像:右侧线性部分使得ELU可以缓解梯度消失问题,而左侧软饱和性能让ELU对输入变化或噪声更鲁棒。而且ELU的输出均值接近于0,所以没有严重的偏移现象,所以收敛速度更快2.torch.nn.LeakyReLU数学表达式:negative_slop是一个超参数,控制x为负数时斜率的角度,默认1e-2图像:3.torch.nn.PReLU() ReLU和LReLU改进版本数学原创 2021-11-23 22:46:37 · 1570 阅读 · 0 评论 -
Pytorch学习 - Task6 PyTorch常见的损失函数和优化器使用
Pytorch学习 - Task6 PyTorch常见的损失函数和优化器使用官方1. 损失函数(1)BCELoss 二分类计算公式小例子:(2) BCEWithLogitsLoss 将Sigmoid函数和BCELoss方法结合到一个类中计算公式多出参数:小例子(3)NLLLoss(多分类问题) - 多分类的负对数似然损失函数(negative log likelihood loss)计算公式多出参数小例子(4)CrossEntropyLoss 多分类问题 - 将nn.LogSoftmax()和nn.NLL原创 2021-11-22 14:29:24 · 1486 阅读 · 0 评论 -
Pytorch学习- 小型知识点汇总 unsqueeze()/squeeze() 和 .max() 等等
1. unsqueeze(input, dim, out=None)函数 - 升维作用参考链接在指定的地方上增加一个维度0(-2) [行扩展]: 表示在张量最外层增加一个中括号变成第一维1(-1) [列扩展]:表示>>> input = torch.arange(0,6)>>> inputtensor([0, 1, 2, 3, 4, 5])>>> input.shapetorch.Size([6])>>> pri原创 2021-11-22 09:10:45 · 848 阅读 · 0 评论 -
Pytorch学习:Task2-3 梯度计算和梯度下降过程、PyTorch全连接层原理和使用
学习自动求梯度torch.autograd学习 torch内置计算梯度工具torch.autogradbackwards 反向传播:参数(模型权重)根据给定参数的损益函数的梯度进行调整。# input:x parameters:w,bimport torchx = torch.ones(5)y = torch.zeros(3)w = torch.randn(5,3,requires_grad=True) # 参数需要计算损失函数梯度 因此设置 required_grad = Trueb原创 2021-11-20 17:25:40 · 1668 阅读 · 0 评论 -
Pytorch学习-Task1
PyTorch学习-Task1:PyTorch张量计算与Numpy的转换张量 Tensor1.张量的定义2.张量的运算3.Tensor与Numpy类型的转换张量 Tensor1.张量的定义PyTorch支持的数据类型:整型和浮点型;以及对应的张量子类型数据类型类型名称张量子类型(1) 整型8位int8ByteTensor8位uint8CharTensor16位shortShortTensor32位intIntTensor64位原创 2021-11-20 15:54:37 · 1263 阅读 · 0 评论
分享