- 博客(9)
- 收藏
- 关注
原创 Pytorch实践----09.多分类问题
学习刘二大人《PyTorch深度学习实践》B站地址:B站视频import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimbatch_size = 64tr
2022-02-11 21:42:50
130
原创 Pytorch实践----09.Softmax_Classifier多分类问题
学习刘二大人《PyTorch深度学习实践》B站地址:B站视频import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimbatch_size = 64tr
2022-02-11 21:36:13
343
原创 Pytorch实践----08.加载数据集
学习刘二大人《PyTorch深度学习实践》B站地址:B站视频import torchimport torch.nn as nnimport torch.nn.functional as Fimport numpy as npfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoaderclass DiabetesDataset(Dataset): def __init__(self, fi
2022-02-11 21:33:05
146
原创 Pytorch实践----07.处理多维特征的输入
学习刘二大人《PyTorch深度学习实践》B站地址:B站视频问题:每一层都有非线性操作,层越多,学习能力理论上是越强的,但是很可能也学习到了噪声,过拟合问题突出import torchimport torch.nn as nnimport torch.nn.functional as Fimport numpy as npxy = np.loadtxt('diabetes.csv.gz', delimiter=',', dtype=np.float32)x_data = torch.f
2022-02-11 21:30:49
521
原创 Pytorch实践----06.Logistic Regression逻辑斯蒂回归
学习刘二大人《PyTorch深度学习实践》B站地址:B站视频逻辑斯蒂回归虽然叫和回归,但其实是为了解决分类问题import torchimport torch.nn as nnimport torch.nn.functional as Fx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[0], [0], [1]])class LogistRegressionModel(nn.Module):
2022-02-11 21:19:42
509
原创 Pytorch实践----05.Linear Regression with Pytorch
学习刘二大人《PyTorch深度学习实践》B站视频:B站视频问题:1.数据准备阶段要注意数据的维度2.设计模型Design model using Class!3.构造Loss函数和优化函数4.重复训练import torchimport torch.nn as nnx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])# 构造模型的时候把其构造为一个类
2022-02-11 20:58:10
421
原创 Pytorch实践----04Back Propagation反向传播
学习刘二大人《PyTorch深度学习实践》B站地址:B站链接问题1:通过损失的计算对权重进行更新,对于复杂的网络应当怎么去做呢?通过前馈和反向传播问题2:在每一层结束引入非线性变换函数的意义是?为了提高模型的复杂度和泛化程度import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = torch.Tensor([1.0])w.requires_grad = Truedef forward(x): ret
2022-02-11 20:42:56
304
原创 Pytorch实践----03Gradient Descent梯度下降
学习刘二大人《PyTorch深度学习实践》B站地址:B站地址问题基于上文,提出优化问题,如何找到损失最小的点呢?因此提出了,梯度下降算法。在深度学习中,局部最优较少,难以克服的是鞍点问题,即鞍点处梯度为0,自动消失。做法准备训练集设置初始权重猜测求y_pred将数据集拿进去,算cost求梯度做更新x_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = 1.0def forward(x): return x *
2022-02-11 17:30:49
484
原创 Pytorch实践----02Linear Model线性模型
学习刘二大人《PyTorch深度学习实践》B站地址本周最重要的收获是在自己完成了从系统架构到测试架构,数据读取,损失函数整个过程的实践。对于深度学习的理解更加深入。读懂别人的网络结构并不难,难在自己在设计模型时网络的设计,细节的处理,细化到数据读取,损失的处理等。第一章:线性模型步骤:准备Dataset进行模型的选择进行训练Traininginferring问题:只有训练集的话,在测试之前想知道训练集性能如何该如何做呢?x,y是满足联合分布D(x, y),但是我们选取的数据集(x,
2022-02-11 17:10:44
1685
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅