
deep learning
風中塵埃
这个作者很懒,什么都没留下…
展开
-
记录参加DataWhale的CV实践_语义分割--赛题理解与baseline
赛题:地址:https://tianchi.aliyun.com/competition/entrance/531872/information原创 2021-03-01 13:00:18 · 270 阅读 · 1 评论 -
用pytorch实现一个简单的线性回归模型
我们使用pytorch实现一个简单的线性回归模型。(我是在jupyter notebook下做的,建议在这个环境下写代码)首先我们先定义数据集:#数据集中的样本值x = [35.7, 55.9, 58.2, 81.9, 56.3, 48.9, 33.9, 21.8, 48.4, 60.4, 68.4]#数据集中的标签y = [0.5, 14.0, 15.0, 28.0, 11.0, 8.0, 3.0, -4.0, 6.0, 13.0, 21.0]x = torch.tens原创 2021-01-01 18:02:17 · 676 阅读 · 1 评论 -
pytorch代码示例笔记 -- Autograd
这篇博文是我记录学习pytorch的一些代码例子,我会时不时来看这些代码加深学习例子来自https://pytorch.org/tutorials/beginner/pytorch_with_examples.htmlimport torchimport mathdtype = torch.floatdevice = torch.device("cpu")x = torch.linspace(-math.pi, math.pi, 2000, dt原创 2020-12-30 01:43:19 · 448 阅读 · 4 评论 -
深度学习随笔 -- 卷积神经网络
我主要看邱锡鹏的神经网络与深度学习来学习的(花书到时候会去看看)用全连接前馈网络来处理图像,会存在一下问题:参数太多 局部不变性特性(这块能用数据进行增强)而卷积神经网络是一种具有局部连接,权重共享等特性的深层前馈神经网络。一个典型的卷积神经网络是由卷积层,汇聚层,全连接层交叉堆叠而成。卷积神经网络有三个结构上的特性:局部连接,权重共享,汇聚卷积层它的作用是提取一个局部区域的特征,不同的卷积核相当于不同的特征提取器。比如对于图像的卷积层,它的一部分卷积层的大小会为高.原创 2020-12-28 16:55:23 · 402 阅读 · 0 评论 -
关于深度学习上的一些术语: Epoch, Batch Size, Iteration
Epoch:一个epoch 就是 将数据集的全部训练样本训练一次Batch Size:批大小,每次训练从训练集中取Batch Size个训练样本Iteration:一个 Iteration 就是 使用BatchSize个训练样本训练一次参考:https://www.jianshu.com/p/005d05e18c7d...原创 2020-12-14 02:12:29 · 400 阅读 · 2 评论