- 博客(5)
- 收藏
- 关注
原创 《PyTorch深度学习实践》-刘二大人-第六讲-逻辑斯蒂回归
深度学习代码都是四步走,第一步准备数据,第二步设计模型,第三步构造损失函数和优化器,第四步循环训练。
2024-04-25 10:51:14
272
1
原创 《PyTorch深度学习实践》-刘二大人-第五讲-用pytorch实现线性回归
代码中定义了一个线性模型的类,通过MSE计算损失,通过优化器SGD更新w和b的值,最后输出结果。
2024-04-23 15:47:04
375
原创 《PyTorch深度学习实践》-刘二大人-第四讲-反向传播算法
w1.requires_grad=True是为了允许backward计算导数,这里有三个未知数,就需要将w1,w2,b的requires_grad都设置为true,再运行backward函数就可以计算了。正向计算loss需要自己计算,反向传播可以直接用pytorch中的backward函数直接计算导数,最后不断迭代更新即可。
2024-04-18 08:44:04
251
1
原创 《PyTorch深度学习实践》-刘二大人-第三讲-梯度下降算法
随机梯度下降算法与梯度下降算法主要的区别在于将全局损失cost改为单个损失loss,用单个损失来计算梯度偏置值,再进行梯度更新。1、计算全局损失cost,对全局损失求导求偏置值,再求预测值。
2024-04-15 10:30:50
235
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人