
Pytorch
文章平均质量分 71
Pytorch
三世
这个作者很懒,什么都没留下…
展开
-
np.polyfit函数
函数返回一个包含多项式系数的 NumPy 数组,系数的顺序是从高次到低次的。例如,对于一次多项式(线性拟合),返回的数组将包含两个元素,分别对应于一次项和常数项。在这个例子中,np.polyfit 将 x 和 y 数据点拟合成一个一次多项式,返回的 coefficients 数组将包含拟合出的斜率和截距。这个函数用于拟合一组数据点到一个多项式模型,返回多项式系数。然后,fit_function 就是拟合出的一次多项式,你可以用它来预测新的 x 值对应的 y 值。-x: 数据点的 x 坐标。原创 2024-11-28 11:29:18 · 471 阅读 · 0 评论 -
Anaconda新建python版本
由于新版本的Anaconda自带的python是3.11的,国内镜像一些库,不好下载。特更新为常见的python3.9。原创 2024-07-06 18:32:29 · 529 阅读 · 0 评论 -
无法下载cuda
用360、chrome、Edge浏览器都打不开下载页面,有的人说后缀com改成cn,都不行。知乎上说是网络问题,电信换成换成移动/联通的网络会好点。,为了节省流量,我直接下载cuda的exe(network)版本,然后台式机上再在线安装。原创 2024-07-06 18:07:50 · 2823 阅读 · 0 评论 -
修改Pycharm中git的代码提交者信息
问题1、之前pycharm中安装git,首次提交代码,默认代码提交者信息为Administrator。如何后续更改呢?答案:我是没找到界面修改的地方,只有在git配置文件“C:\Users\Administrator\.gitconfig”里修改。原创 2024-02-27 10:57:24 · 3017 阅读 · 0 评论 -
Python字典的用法总结
python中字典的常用方法总结原创 2022-11-29 13:35:43 · 3191 阅读 · 0 评论 -
Jupyter Notebook局域网访问服务器(win10)
windows10服务器配置局域网jupyter Notebook的远程访问环境原创 2022-11-29 10:03:34 · 4429 阅读 · 0 评论 -
torch.copy_()函数介绍
原来权重的存储指针会指向新得到的权重张量的存储区域;而使用 .copy_() 的话,仅仅是改变原来权重的值,存储区域则不发生改变。copy_()有利于降低运算。原创 2022-11-24 15:19:37 · 5158 阅读 · 0 评论 -
torch.as_tensor()、torch.Tensor() 、 torch.tensor() 、transforms.ToTensor()的区别
torch.as_tensor()、torch.Tensor() 、 torch.tensor() 、transforms.ToTensor()的用法和区别原创 2022-11-24 11:01:43 · 6101 阅读 · 1 评论 -
残差结构详解
残差元的主要设计有两个,快捷连接和恒等映射,快捷连接使得残差变得可能,而恒等映射使得网络变深,而恒等映射主要有两个:跳跃连接和激活函数。ResNets的提出,可以解决上述问题,即使网络再深,训练的表现仍表现很好。它有助于解决梯度消失和梯度爆炸问题,让我们在训练更深网络的同时,又能保证良好的信息。转载 2022-10-19 16:51:03 · 18053 阅读 · 0 评论 -
《pytorch车型细分类网络》的源码
这篇文章代码有错误。我稍微调整了一下,可以正常跑了。原创 2022-09-30 17:16:37 · 1780 阅读 · 2 评论 -
【pytorch】带batch的tensor类型图像显示
数据加载器中数据的维度是[B, C, H, W],我们每次只拿一个数据出来就是[C, H, W],而matplotlib.pyplot.imshow要求的输入维度是[H, W, C],所以我们需要交换一下数据维度,把通道数放到最后面。原创 2022-09-22 17:32:12 · 6642 阅读 · 1 评论 -
Pytorch:tensor.mean()和tensor.sum()
torch.mean在不同的dim上取不同行的均值。原创 2022-09-20 16:06:27 · 15134 阅读 · 4 评论 -
transforms.Normalize()
transforms.Normalize:数据标准化,即均值为0,标准差为1。原创 2022-09-20 10:46:22 · 27993 阅读 · 7 评论 -
PyTorch实例入门(1):图像分类的代码例子
PyTorch实例入门(1):图像分类,代码例子。参考文章:PyTorch实例入门(1):图像分类 - 知乎,我稍微整理了一下,方便初学者理解。代码可以直接跑。原创 2022-09-15 10:00:05 · 3914 阅读 · 1 评论 -
Pytorch:一些常用代码
常用代码总结原创 2022-09-14 17:33:26 · 5987 阅读 · 0 评论 -
总结3-常见深度学习网络入门:pytorch实例
常见深度学习网络入门:pytorch实例原创 2022-09-15 10:01:49 · 3324 阅读 · 0 评论 -
转:Pytorch模型小例子
原文链接:如果你想在五分钟内编写Pytorch模型,需要完成四个步骤:导入和预处理(数据集)数据,并对其进行批处理(数据加载器)使用神经网络建立模型。编写一个训练循环并运行它。验证集上的验证。由于MNIST已经做得非常彻底,我们将介绍如何导入torchvision数据集,并在五分钟内编写一些代码。出于这个原因,它不会很漂亮,但会起作用。下载和导入数据因为MNIST已经做得很死了,我们将搜索标准的torchvision数据集,看看是否还有其他我们想要尝试和预测的东西。让我们来看K...............转载 2022-06-14 17:15:27 · 1740 阅读 · 0 评论 -
解决:pycharm运行程序时出现Run ‘python tests for XXX.py‘的问题
解决:pycharm运行程序时出现Run ‘python tests for XXX.py‘的问题原创 2022-06-09 17:03:27 · 7760 阅读 · 3 评论 -
猫和狗的分类例子-Kaggle
完成书籍上的代码例子,执行环境依赖库安装。发现这句指令有错,pip install git+https://github.com/pytorch/tnt.git@master安装依赖包torchnet:tnt。遇到如下错误:1)主要是没有安装git包,执行命令: 2)完成安装git后,再次执行requirements中的指令,完成torchnet包的安装:...原创 2022-06-07 15:30:49 · 935 阅读 · 0 评论 -
Pytorch:visdom介绍
一、介绍在深度学习领域,模型训练是一个必须的过程,因此常常需要实时监听并可视化一些数据,如损失值loss,正确率acc等。在Tensorflow中,最常使用的工具非Tensorboard莫属;在Pytorch中,也有类似的TensorboardX,但据说其在张量数据加载的效率方面不如visdom。visdom是FaceBook开发的一款可视化工具,其实质是一款在网页端的web服务器,对Pytorch的支持较好。Visdom中有两个重要概念:env:环境。不同环境的可视化结果相互隔离,互不影响,在原创 2022-04-14 15:51:06 · 2020 阅读 · 0 评论 -
pytorch中model.train(),model.eval() 和 torch.no_grad()的区别
pytorch中model.train(),model.eval() 和 torch.no_grad()的区别转载 2022-04-13 14:39:09 · 928 阅读 · 0 评论 -
pytorch梯度的计算过程
1、基础知识:与numpy中的基本操作相似, pytorch 的作用是引入GPU加快运算, 增加图形界面, 适合大数据运算, 尤其是deep learning gradient 梯度类似于求导, 找到梯度下降的最佳路径。 tensor 除了可以进行线性代数运算, 还可以求梯度 tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation g...原创 2022-03-30 17:34:40 · 9191 阅读 · 2 评论 -
Pytorch:torchvision包-总结
TORCHVISION官网地址:torchvision — Torchvision 0.12 documentation计算机视觉是深度学习中最重要的一类应用,为了方便研究者使用,PyTorch团队专门开发了一个视觉工具包torchvion,这个包独立于PyTorch,需通过pip instal torchvision安装。在之前的例子中我们已经见识到了它的部分功能,这里再做一个系统性的介绍。torchvision它是一个视觉工具包,提供了很多视觉图像处理的工具,主要包含三部分:datasets..翻译 2022-03-25 17:16:02 · 1769 阅读 · 0 评论 -
优化器:torch.optim
优化器:torch.optim转载 2022-01-16 18:10:44 · 1114 阅读 · 0 评论 -
总结2-深度学习网络搭建学习
总结2-深度学习网络搭建学习原创 2022-01-14 16:50:10 · 1541 阅读 · 0 评论 -
总结1-深度学习-基础知识学习
【小记】下采样和池化的区别:关于池化的神解释 深度学习VGG模型核心拆解,AlexNet和VGGNet,看到这,让我不由得先去看看CNN网络。 CNN(卷积神经网络)入门原创 2021-11-12 11:47:41 · 480 阅读 · 0 评论 -
池化层理解
参考网址:https://www.zhihu.com/question/36686900/answer/130890492https://www.cnblogs.com/skyfsm/p/6790245.html池化层夹在连续的卷积层中间, 用于压缩数据和参数的量,减小过拟合。简而言之,如果输入是图像的话,那么池化层的最主要作用就是压缩图像。下采样层也叫池化层,其具体操作与卷积层的操作基本相同,只不过下采样的卷积核为只取对应位置的最大值、平均值等(最大池化、平均池化),即矩阵之间的运算规律转载 2021-02-07 16:23:16 · 935 阅读 · 0 评论 -
卷积神经网络(CNN)中,卷积层、激活函数、池化层、全链接层术语解析
本文内容转自https://www.cnblogs.com/zf-blog/p/6075286.html和https://www.cnblogs.com/rgvb178/p/6055213.html整理如下:(1)卷积层:用它来进行特征提取,如下:输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filte转载 2021-02-07 15:40:01 · 1762 阅读 · 0 评论 -
神经网络:全连接层
全连接层:全连接层一般会放在网络的最后,作用是用来综合所有信息。对于cnn它提取特征的范围是全图的,直接把图像降维成一堆序列。卷积层是一种局部连接,它所能提取的特征的范围,取决于卷积核的感受野,当卷积核感受野覆盖到全图的时候,它的作用就和全连接层类似了。(所以用和特征图尺寸一样大小的卷积核做卷积,提取全图范围特征,和接全连接层,计算过程是等效的,输入输出,参数量完全一样)全连接之所以失宠:有人说是参数量大的原因。其实如果特征图压缩的足够小再做全连接,参数量和计算量也是不算大...转载 2021-02-06 17:27:25 · 30246 阅读 · 1 评论 -
深度学习: pooling (池化 / 降采样)
在知乎上面看到一个关于池化的神解释,摘来:池化=涨水卷积的目的是为了得到物体的边缘形状可以想象水要了解山立体的形状水位低时得出山脚的形状水位中等时得出山腰的形状水位高时得出山顶的形状三点就可以大致描出山的简笔画池化的过程=升高水位(扩大矩阵网格)卷积的过程是区分哪里是水,哪里是山加上一点个人理解:对于网络结构而言,上面的层看下面的层经过pooling后传上来的特征图,就好像在太空上俯瞰地球,看到的只有山脊和雪峰。这即是对特征进行宏观上的进一步抽象。那么为什么...转载 2021-01-18 18:29:39 · 2160 阅读 · 0 评论 -
Pytorch:卷积操作
矩阵的点积就是矩阵各个对应元素相乘, 这个时候要求两个矩阵必须同样大小矩阵的乘法就是矩阵a的第一行乘以矩阵b的第一列,各个元素对应相乘然后求和作为第一元素的值。矩阵只有当左边矩阵的列数等于右边矩阵的行数时,它们才可以相乘,乘积矩阵的行数等于左边矩阵的行数,乘积矩阵的列数等于右边矩阵的列数卷积把模板(n*n)放在矩阵上(中心对准要处理的元素),用模板的每个元素去乘矩阵中的的元素,累加和等于这个元素。步骤很简单:1.求卷积矩阵的元素x,y时,对准h矩阵的x,y元素。2.然后 ...转载 2021-01-18 18:15:01 · 1234 阅读 · 0 评论 -
Pytorch:stride步长
pytorch中的storage指的是连续的内存块,而tensor则是映射到storage的视图,他把单条的内存区域映射成了n维的空间视图。size是tensor的维度,storage offset是数据在storage中的索引,stride是storage中对应于tensor的相邻维度间第一个索引的跨度。示例如下:上图是一个storage,与它对应的tensor([[3.0, 1.0, 2.0], [4.0, 1.0, F]])如下图所示:那么这里的stride=(3,1),因为从第一转载 2021-01-18 17:57:15 · 5102 阅读 · 0 评论 -
python中的*和**参数:nn.Sequential(*layers)
单星号参数函数中的单星号参数代表此处接受任意多个非关键字参数,这些参数将以数组形式保存,例如:def foo(a, *b): print bfoo(1, 2, 3, 4, 5)执行结果为:(2, 3, 4, 5)多星号参数函数中的多星号参数代表此处接受任意多个关键字参数,这些参数以字典形式保存,例如:def foo(a, **b): print bfoo(a=1, b=2, c=3, d=4, e=5)执行结果为:{'c': 3, 'b'转载 2021-01-18 10:40:38 · 1267 阅读 · 0 评论 -
PyTorch: torch.optim 的6种优化器及优化算法介绍
import torchimport torch.nn.functional as Fimport torch.utils.data as Dataimport matplotlib.pyplot as pltimport numpy as np1. 结合PyTorch中的optimizer谈几种优化方法这6种方法分为2大类:一大类方法是SGD及其改进(加Momentum);另外一大类是Per-parameter adaptive learning rate methods(逐参数适应学.转载 2021-01-17 16:44:35 · 5563 阅读 · 0 评论 -
Pytorch:初始化
4.4 初始化策略在深度学习中参数的初始化十分重要,良好的初始化能让模型更快收敛,并达到更高水平,而糟糕的初始化则可能使得模型迅速瘫痪。PyTorch中nn.Module的模块参数都采取了较为合理的初始化策略,因此一般不用我们考虑,当然我们也可以用自定义初始化去代替系统的默认初始化。而当我们在使用Parameter时,自定义初始化则尤为重要,因t.Tensor()返回的是内存中的随机数,很可能会有极大值,这在实际训练网络中会造成溢出或者梯度消失。PyTorch中nn.init模块就是专门为初始化而设计,转载 2021-01-16 18:20:37 · 933 阅读 · 0 评论 -
Pytorch:优化器
4.2 优化器PyTorch将深度学习中常用的优化方法全部封装在torch.optim中,其设计十分灵活,能够很方便的扩展成自定义的优化方法。所有的优化方法都是继承基类optim.Optimizer,并实现了自己的优化步骤。下面就以最基本的优化方法——随机梯度下降法(SGD)举例说明。这里需重点掌握:优化方法的基本使用方法 如何对模型的不同部分设置不同的学习率 如何调整学习率In[32]:# 首先定义一个LeNet网络class Net(nn.Module): def _.转载 2021-01-16 17:11:43 · 420 阅读 · 0 评论 -
Pytorch:损失函数
4.1.4 损失函数在深度学习中要用到各种各样的损失函数(loss function),这些损失函数可看作是一种特殊的layer,PyTorch也将这些损失函数实现为nn.Module的子类。然而在实际使用中通常将这些loss function专门提取出来,和主模型互相独立。详细的loss使用请参照文档1,这里以分类中最常用的交叉熵损失CrossEntropyloss为例说明。 http://pytorch.org/docs/nn.html#loss-functions↩ In[31]:.转载 2021-01-16 17:04:25 · 206 阅读 · 0 评论 -
详解PyTorch中的ModuleList和Sequential
在使用PyTorch的时候,经常遇到nn.Sequential和nn.ModuleList,今天将这两个模块认真区分了一下,总结如下。PyTorch版本为1.0.0。本文也会随着本人逐渐深入Torch和有新的体会时,会进行更新。本人才疏学浅,希望各位看官不吝赐教。一、官方文档首先看官方文档的解释,仅列出了容器(Containers)中几个比较常用的CLASS。CLASS torch.nn.ModuleBase class for all neural network modules.转载 2021-01-16 16:17:24 · 681 阅读 · 0 评论 -
pytorch:nn.Sequential讲解
接下来想讲一下参数初始化方式对训练的影响,但是必须要涉及到pytorch的自定义参数初始化,然而参数初始化又包括在不同结构定义中初始化方式,因而先讲一下pytorch中的nn.Sequentialnn.SequentialA sequential container. Modules will be added to it in the order they are passed in the constructor. Alternatively, an ordered dict of module转载 2021-01-16 16:00:44 · 1555 阅读 · 0 评论 -
Pytorch的RELU函数
4.1.2 激活函数PyTorch实现了常见的激活函数,其具体的接口信息可参见官方文档1,这些激活函数可作为独立的layer使用。这里将介绍最常用的激活函数ReLU,其数学表达式为:代码:relu = nn.ReLU(inplace=True)input = t.randn(2, 3)print(input)output = relu(input)print(output) # 小于0的都被截断为0# 等价于input.clamp(min=0)结果:tensor([[转载 2021-01-16 10:50:23 · 47116 阅读 · 1 评论