torch
接近真理的真
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
手写数字识别pytorch 附loss图和结果验证图
import torchimport torchvisionimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimimport numpy as npimport osimport matplotlib.pyplot as pltfrom torchvision import datasets, transformsn_epochs = 3random_seed = 1BATCH.原创 2021-11-18 23:24:35 · 2157 阅读 · 0 评论 -
梯度下降的实现python
import numpy as npfrom matplotlib import pyplot as plt# 创建列表,用于保存采集得到的样本data = []for i in range(100): x = np.random.uniform(-10., 10.) # 随机采样输入x # 采样高四噪声 eps = np.random.normal(0., 0.01) y = 1.477 * x + 0.089 + eps data.append(.原创 2021-08-20 11:19:28 · 181 阅读 · 0 评论 -
神经网络实现torch温度计问题
import torchfrom matplotlib import pyplot as pltimport torch.optim as optimimport torch.nn as nnfrom collections import OrderedDict#torch.unsqueeze()这个函数主要是对数据维度进行扩充。参数为0数据为行方向扩,为1列方向扩,再大错误# 为什么用unsqueeze# 因为PyTorch的nn.Linear()是用于设置网络中的全连接层的,# 需要注.原创 2021-08-02 11:43:44 · 589 阅读 · 0 评论 -
温度计问题(未使用优化器)
import torchfrom matplotlib import pyplot as pltdef loss_fn(t_p,t_c):#注意定义变量是函数名字和变量名字不要混淆 l=(t_p-t_c)**2 return l.mean()#对所有损失求和key 变量.mean()为对变量求和def model(t_u,w,b): return w*t_u+bdef d_t(t_p,t_c): d_t=2*(t_p-t_c) return d_tdef.原创 2021-08-02 11:41:30 · 116 阅读 · 0 评论 -
利用phtorch中的优化器实现梯度下降
import torchfrom matplotlib import pyplot as pltimport torch.optim as optim# 因为grad在反向传播的过程中是累加的,也就是说上一次反向传播的结果会对下一次的反向传播的结果造成影响,# 则意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需要把梯度清零。##清零使用的方法是# #未加入优化器时# if params.grad is not None:# # params.grad.zero_.原创 2021-08-02 11:40:36 · 288 阅读 · 0 评论
分享