pytorch笔记

本文详细介绍了PyTorch框架中的关键模块,包括优化器如批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD),以及Adam算法。探讨了损失函数如均方误差(MSELoss)、负对数似然损失(NLLLoss)和二元交叉熵损失(BCELoss)等。同时,文章还覆盖了PyTorch中常见的神经网络层,如线性层(Linear)、激活函数(Sigmoid, ReLU)和模型模块(Module)。此外,还讲解了如何使用PyTorch进行GPU计算、数据加载和预处理。

PyTorch Docs

1、torch

torch.optim

  • BGD(): batch gradient descent
  • SGD(): stochastic gradient descent
  • MBGD(): mini-batch gradient descent
  • Adam()

torch.nn

  • MESLoss(): mean square error,均方误差

  • NLLLoss(): Negative Log Likelihood Loss

  • BCELoss(): Binary Cross Entropy Loss

    		BCELoss(x, y)
    

    − 1 n ∑ ( y n × ln ⁡ x n + ( 1 − y n ) × ln ⁡ ( 1 − x n ) ) -\frac 1 n\sum(y_n \times \ln x_n+(1-y_n) \times \ln(1-x_n)) n1(yn×lnxn+(1yn)×ln(1xn))

  • BCEWithLOgitsLoss

  • CrossEntropyLoss():

  • Linear()

  • Sigmoid()

  • relu()

  • Module

torch.nn.functional

  • cross_entropy(),交叉损失熵

torch.cuda

  • is_available()

torch.utils

  • save_image()

torch.utils.data

  • TensorDataset
  • DataLoader

2、torchvision

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值