- 博客(12)
- 收藏
- 关注
原创 torch.stack()的用法
torch.stack((tensor1, tensor2), dim = x)用法相当于将tensor进行堆叠。当dim = 0时,将tensor1和tensor2进行堆叠;dim = 1时,将tensor1[0]和tensor2[0]进行堆叠;dim = 2时,将tensor1[0][0]和tensor2[0][0]进行堆叠;
2022-04-16 10:52:50
947
原创 训练神经网络时w-=lr*w.grad和w=w-lr*w.grad的不同
在训练神经网络时,使用w-=lr*w.grad时网络可以正常训练,但使用w=w-lr*w.grad时网络的梯度却消失。因为使用w=w-lr*w.grad时,w和w不是相同的w,而是将原先的w计算后存在一个新的tensor里再返回给新的w中。新的w没有设置梯度,所以训练会梯度消失。...
2022-04-10 11:28:50
1166
原创 沐神代码 DataLoader worker (pid(s) 23468, 25112, 11228) exited unexpectedly)错误
@[TOC](DataLoader worker (pid(s) 23468, 25112, 11228) exited unexpectedly)沐神的课中出现这样的错误提示,表示电脑多线程处理时候发生错误,将对应的num_workers设置为0即可解决。可将文件d2l目录下的utils文件和torch文件中所有load_data_fashion_mnist函数中data.DataLoader的参数num_workers设置为0。...
2022-03-20 15:48:37
1001
2
原创 一般网络训练流程
训练流程1. 设定参数2. 初始化w和b的方法1. 定义初始化函数:2. 直接赋值3. 调用init.方法3. 定义net1. d2l方法2. nn.Sequential4. 准备训练:1. 定义loss:2. 定义准确度3. 选取优化器optimizer:4. 定义dataset 和train_iter:5. 开始训练:1. 先在num_epochs中循环训练2. 在train_features中训练3. 计算loss4. 清空梯度1.2.3.5. 对l进行backward6. 优化器进行优化1.2.7.
2022-03-12 20:15:59
1655
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人