
pytorch
文章平均质量分 77
和BUG做朋友的ZORO
这个作者很懒,什么都没留下…
展开
-
【CV实践】之零基础入门语义分割---Task3语义分割模型发展
参加本次活动的目标:通过本次赛题可以引导大家熟练掌握语义分割任务的定义,具体的解题流程和相应的模型,并掌握语义分割任务的发展基础入门语义分割---Task3语义分割模型发展0x10:学习目标0x20:FCN0x21:FCN原理及网络结构0x21:反卷积(Deconvolutional)0x23:跳跃结构0x24:FCN-32s过程0x25:FCN-16s过程0x26:FCN-8s过程0x10:学习目标掌握语义分割模型的原理和训练过程掌握语义分割的发展脉络掌握语义分割模型的使用0x20:FCN原创 2021-02-26 22:49:14 · 310 阅读 · 0 评论 -
【CV实践】之零基础入门语义分割---Task1赛题理解
参加本次活动的目标:通过本次赛题可以引导大家熟练掌握语义分割任务的定义,具体的解题流程和相应的模型,并掌握语义分割任务的发展零基础入门语义分割---Task1赛题理解0x10:赛题理解与 baseline0x20:赛题数据分析0x21:赛题数据0x22:数据标签参考文章0x10:赛题理解与 baseline– 学习主题:理解赛题内容解题流程– 学习内容:赛题理解、数据读取、比赛 baseline 构建– 学习成果:比赛 baseline 提交0x20:赛题数据分析0x21:赛题数据本赛原创 2021-02-20 21:11:31 · 223 阅读 · 0 评论 -
【CV实践】之零基础入门语义分割---Task2数据增强
参加本次活动的目标:通过本次赛题可以引导大家熟练掌握语义分割任务的定义,具体的解题流程和相应的模型,并掌握语义分割任务的发展零基础入门语义分割---Task2数据增强0x10:学习目标0x20:常见的数据扩增方法0x30:OpenCV数据扩增0x40:albumentations 数据扩增0x50:Pytorch 数据读取0x60:课后作业0x10:学习目标理解基础的数据扩增方法学习OpenCV 和 albumentations 完成数据扩增Pytorch 完成赛题读取0x20:常见的数据扩原创 2021-02-23 22:56:22 · 177 阅读 · 0 评论 -
【动手学深度学习】---0x07:卷积神经网络
【动手学深度学习】—0x07:卷积神经网络1)卷积神经网络(LeNet)卷积层解决问题:卷积层保留输入形状,使图像的像素在高和宽两个方向上的相关性均可能被有效识别卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。LeNet模型LeNet分为卷积层块和全连接层块两个部分卷积层块里的基本单位是卷积层后接最大池化层:卷积层用来识别图像里的空间模式,如线条和物体局部;最大池化层则用来降低卷积层对位置的敏感性。在卷积层块中,每个卷积层都使用5×55×5的窗口,并在输出原创 2021-01-29 21:19:58 · 385 阅读 · 0 评论 -
【动手学习深度学习】---0x06:卷积神经网络基础知识
【动手学习深度学习】—0x06:卷积神经网络基础知识1)二维卷积层二维互相关运算在二维卷积层中,一个二维输入数组和一个二维核(kernel)数组通过互相关运算输出一个二维数组在二维互相关运算中,卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素其中的4个元素由二维互相关运算得出:0×0+1×1+3×2+4×3=19,1×0+2×1+4×2+5×3=25,3原创 2021-01-29 14:53:01 · 163 阅读 · 0 评论 -
【动手学深度学习】---0x05:深度学习基础
【动手学深度学习】—0x05:深度学习基础模型构造继承moudle类来构造模型(层)Module类是nn模块里提供的一个模型构造类,是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型。定义模型类需要重载Module类的__init__()函数和forward函数。分别用于创建模型和定义前向计算。在这里插入代码片import torchfrom torch import nnclass MLP(nn.Module): # 声明带有模型参数的层,这里声明了两个全连接层原创 2021-01-28 20:33:32 · 281 阅读 · 0 评论 -
【动手学深度学习】---0x04:多层感知机
【动手学深度学习】—0x04:多层感知机隐藏层再神经网络中除了输出层和输入层的层多层感知层的层数为隐藏层加输出层(输入层不涉及计算)隐藏层中的神经元和输入层中各个输入完全连接,输出层中的神经元和隐藏层中的各个神经元也完全连接,所以多层感知机中的隐藏层和输出层都是全连接层。激活函数全连接层只是对数据做仿射变换ReLU函数表达式函数图导数图...原创 2021-01-28 17:10:54 · 161 阅读 · 0 评论 -
【动手学深度学习】---0x03:softmax回归
【动手学深度学习】—0x03:softmax回归基础知识softmax回归是一个单层神经网络,输出个数等于分类问题中的类别个数。交叉熵损失函数适合衡量两个概率分布的差异。图像分类数据集本节我们将使用torchvision包,它是服务于PyTorch深度学习框架的,主要用来构建计算机视觉模型。torchvision主要由以下几部分构成:torchvision.datasets: 一些加载数据的函数及常用的数据集接口;torchvision.models: 包含常用的模型结构(含预训练模型),原创 2021-01-28 17:02:17 · 188 阅读 · 0 评论 -
【动手学深度学习】---0x02:线性回归
【动手学深度学习】—0x02:线性回归问题一:矢量计算表达式import torchfrom time import timea = torch.ones(1000)b = torch.ones(1000)start = time()c = torch.zeros(1000)for i in range(1000): c[i] = a[i] + b[i]print(time() - start) # 0.02039504051208496start = time()d =原创 2021-01-28 16:17:05 · 146 阅读 · 1 评论 -
【动手学深度学习】---0x01:pytorch基础知识
【动手学深度学习】—基础知识1:Tensor:提供GPU计算和自动求梯度2:"tensor"这个单词一般可译作“张量”,张量可以看作是一个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是二维张量。3:创建Tensorx = torch.empty(5, 3) # 5x3的未初始化的Tensorprint(x)'''tensor([[ 0.0000e+00, 1.5846e+29, 0.0000e+00], [ 1.5846e+29, 5.6052e-原创 2021-01-28 15:34:05 · 136 阅读 · 0 评论 -
【pytorch】Torchvision下载FashionMNIST数据集速度过慢的解决方案
1.问题:使用Torchvision下载数据集由于“墙”的问题下载过慢2.解决方案:Ⅰ:先将数据集下载到本地。数据集链接:https://pan.baidu.com/s/1yQEg_5t8nG16s_BP3sUJjA 提取码:za12Ⅱ:按住ctrl,双击FashinonMNIST进入mnist.py中做以下修改:修改地址是下载数据集所在的地址前面一定要加***file:///***(这是以网页上的形式显示出来下载)但是这样做还是会出现报错:RuntimeError: File not原创 2021-01-18 23:21:59 · 1743 阅读 · 0 评论