参考:OPTIMIZING MODEL PARAMETERS
梯度反向传播算法,更新参数
SGD -> Adam
dataset -> dataloader,train_dataloader训练,test_dataloader测试,迭代器
模型继承Module类,__init__(self)
,定义层,Flatten()展平,和Sequential(),有序的容器
forward()函数,前向的计算,logits输出类别数,10个类别
Hyperparameters,超参数,不参与优化,影响模型的效果
Loss Function,损失函数、目标函数,分类函数CrossEntropyLoss,回归函数MSELoss
Optimizer,优化器,SGD,对参数进行更新,torch.optim.SGD(),更新模型参数,model.parameters()
优化前,调用optimizer.zero_grad(),计算梯度los