学习目标:
- 60天python训练营打卡
学习内容:
DAY 33 MLP神经网络的训练
知识点回顾:
1.PyTorch和cuda的安装
2.查看显卡信息的命令行命令(cmd中使用)
3.cuda的检查
4.简单神经网络的流程
a.数据预处理(归一化、转换成张量)
b.模型的定义
i.继承nn.Module类
ii.定义每一个层
iii.定义前向传播流程
c.定义损失函数和优化器
d.定义训练流程
e.可视化loss过程
预处理补充:
注意事项:
- 分类任务中,若标签是整数(如 0/1/2 类别),需转为long类型(对应 PyTorch 的torch.long),否则交叉熵损失函数会报错。
2.回归任务中,标签需转为float类型(如torch.float32)。
在新建网络的时候,我们选择了2层隐藏层和固定的神经元,这类似于我们在机器学习模型中指定一组超参数,神经网络的调参我们未来再提。
作业:今日的代码,要做到能够手敲。这已经是最简单最基础的版本了。
学习时间:
2025.06.16
211

被折叠的 条评论
为什么被折叠?



