【PyTorch】

学习方法

监督学习、无监督学习、半监督学习、强化学习

PyTorch 训练过程(Training Process)

加载数据:通过 DataLoader 加载数据。
定义损失函数和优化器。
前向传播(forward):计算模型的输出。
计算损失(loss):输出和真实值之间的差距。
反向传播:通过 loss.backward() 计算梯度。
更新参数:通过 optimizer.step() 使用优化器根据梯度更新模型的参数
重复上述步骤,直到达到预定的训练轮数。

绘制 Loss/Accuracy 曲线的方法
使用 TensorBoard 分析的方法
六、模型应用
图像分类、图像分割、目标检测的实现
对抗生成、循环网络等场景的应用

优化器的两个核心

梯度下降方法:参数更新方向
学习率:参数更新程度

正则化

归一化、标准化

超参数

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值