PyTorch 深度学习
入门级PyTorch深度学习笔记
玄月无疆
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【PyTorch深度学习】 第十一讲:RNN基础
1.概念原理处理带有序列信息的数据RNNCell:线性层,循环执行2.3.原创 2021-07-20 11:16:24 · 251 阅读 · 0 评论 -
【PyTorch深度学习】 第十讲:CNN高阶
1.概念原理1x1卷积核:改变通道数量;减少运算的数量2.代码实现3.结果展示原创 2021-07-17 16:26:40 · 192 阅读 · 0 评论 -
【PyTorch深度学习】 第九讲:CNN基础
1.概念原理利用卷积盒,对数据矩阵进行相乘相加每个通道对应一个盒2.代码实现import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn.functional as Fimport torch.optim as optim# prepare datasetbatch_size原创 2021-07-11 15:15:04 · 156 阅读 · 0 评论 -
【PyTorch深度学习】 第八讲:多分类
1.概念softMax:概率分布,将每个项的值/累加的值=每个结果出现的概率值NLLLoss:就是把输出与Label对应的那个值拿出来,再去掉负号,再求均值CrossEntropyLoss:就是把Softmax–Log–NLLLoss合并成一步2.代码实现import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoader原创 2021-07-10 22:18:28 · 239 阅读 · 0 评论 -
【PyTorch深度学习】 第七讲:加载数据集
1.原理单个样本 :得到比较好的随机性,较好的跨越鞍点;训练时间长batch:最大化提升向量计算优势,提高计算效率;性能较差mini-batch:均衡结果性能和计算速度2.新概念DateSet:抽象类,无法实例化;可继承DataLoader:加载数据3.代码实现import torchimport numpy as npfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoader原创 2021-07-10 11:09:40 · 617 阅读 · 0 评论 -
【PyTorch深度学习】 第六讲:处理多维特征的输入
1.原理对数据矩阵使用广播机制降维操作2.代码实现import numpy as npimport torchimport matplotlib.pyplot as plt# prepare datasetxy = np.loadtxt('diabetes.csv', delimiter=',', dtype=np.float32)x_data = torch.from_numpy(xy[:, :-1])y_data = torch.from_numpy(xy[:, [-1]])原创 2021-07-06 23:00:51 · 144 阅读 · 0 评论 -
【PyTorch深度学习】 第五讲:逻辑斯蒂回归
1.原理添加激活函数,避免线性回归的无效2.代码实现import torch# import torch.nn.functional as F# prepare datasetx_data = torch.Tensor([[1.0], [2.0], [3.0], [4.0]])y_data = torch.Tensor([[0], [0], [1], [1]])# design model using classclass LogisticRegressionModel(tor原创 2021-07-06 22:55:53 · 282 阅读 · 2 评论 -
【PyTorch深度学习】 第四讲:用PyTorch实现线性回归
1.原理使用PyTorch的内部函数实现线性回归,训练模型2.代码展示# author:ZhuYuYing# data:2021/7/6# projectName:tor-startimport torchx_data = torch.tensor([[1.0], [2.0], [3.0]])y_data = torch.tensor([[2.0], [4.0], [6.0]])'''__init__() 初始化函数torch.nn.Linear 第一个参数原创 2021-07-06 22:16:00 · 173 阅读 · 0 评论 -
【PyTorch深度学习】 第三讲:反向传播
1.数学含义y = w * x2.含义解释使用pytorch的内置backward函数进行自动求导3.代码演示import torchx_data = [1.0,2.0,3.0]y_data = [2.0,4.0,6.0]w = torch.tensor([1.0]) # 版本选择w.requires_grad = True #是否计算梯度def forward(x): return x * wdef loss(x,y):原创 2021-07-06 13:51:05 · 142 阅读 · 0 评论 -
【PyTorch深度学习】 第二讲:梯度下降
1.数学含义y = w * xcost = 1/n ∑(y_pred - y)^2grad = 2 * x * (x * w - y)2.含义解释线性回归反向传播对cost函数求w导得出w的变化率,更新w求得最佳3.代码实现import math# 数据x_data = [1.0,2.0,3.0]y_data = [2.0,4.0,6.0]w = 1.999#线性传播,计算y = w * xdef forword(x): return x * w#原创 2021-07-04 21:54:41 · 155 阅读 · 0 评论 -
【PyTorch深度学习】 第一讲:线性回归
1、数学含义y = w * xloss = (y_pred - y)^22.含义解释通过简单的线性函数来对未知数x及y建立映射在每次取不同的w时计算预测y_pred和真实值y的差值,以观看那个w最佳3.代码实现import numpy as npfrom matplotlib import pyplot as pltimport math# 数据x_data = [1.0,2.0,3.0]y_data = [2.0,4.0,6.0]#线性传播,计算y = w * xd原创 2021-07-04 21:08:12 · 140 阅读 · 0 评论
分享