- 博客(3)
- 收藏
- 关注
原创 李哥考研深度学习回归实战1
一个简单的 MLP:Linear(in_dim, 64) -> ReLU -> Linear(64, 1),回归到标量,并在 batch 维度上 squeeze(1)什么是超参,就是人为规定的,比如学习率。
2025-09-27 20:29:52
1222
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
一个简单的 MLP:Linear(in_dim, 64) -> ReLU -> Linear(64, 1),回归到标量,并在 batch 维度上 squeeze(1)什么是超参,就是人为规定的,比如学习率。
2025-09-27 20:29:52
1222
TA创建的收藏夹 TA关注的收藏夹
TA关注的人