- 博客(7)
- 收藏
- 关注
原创 李沐动手深度学习08线性回归+基础优化算法
因为计算梯度是很贵的,它需要对每个损失函数求导,这个损失函数是对所有样本的平均损失,所以求梯度需要对所有样本算一次。小批量随机梯度下降是随机采样b个样本来近似损失,这里的b是批量大小,一个重要的超参数。b太小,则计算量太小,不适合并行来最大利用计算资源,b太大,内存消耗增加,浪费计算。
2024-07-24 23:08:11
461
原创 李沐深度学习笔记04数据操作实现:
torch.Size([1, 3, 4])#一层3*4的矩阵[1., 1., 1., 1.]]])#这种就是2*3*4的有几个中括号就是几维内存的原地操作1.id变化的操作 Z = torch.zeros_like(Y) print('id(Z):', id(Z)) Z = X + Y print('id(Z):', id(Z))
2024-07-12 14:57:17
452
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1