1、torch
torch.optim
- BGD(): batch gradient descent
- SGD(): stochastic gradient descent
- MBGD(): mini-batch gradient descent
- Adam()
torch.nn
-
MESLoss(): mean square error,均方误差
-
NLLLoss(): Negative Log Likelihood Loss
-
BCELoss(): Binary Cross Entropy Loss
BCELoss(x, y)− 1 n ∑ ( y n × ln x n + ( 1 − y n ) × ln ( 1 − x n ) ) -\frac 1 n\sum(y_n \times \ln x_n+(1-y_n) \times \ln(1-x_n)) −n1∑(yn×lnxn+(1−yn)×ln(1−xn))
-
BCEWithLOgitsLoss
-
CrossEntropyLoss():
-
Linear()
-
Sigmoid()
-
relu()
-
Module
torch.nn.functional
- cross_entropy(),交叉损失熵
torch.cuda
- is_available()
torch.utils
- save_image()
torch.utils.data
- TensorDataset
- DataLoader
本文详细介绍了PyTorch框架中的关键模块,包括优化器如批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD),以及Adam算法。探讨了损失函数如均方误差(MSELoss)、负对数似然损失(NLLLoss)和二元交叉熵损失(BCELoss)等。同时,文章还覆盖了PyTorch中常见的神经网络层,如线性层(Linear)、激活函数(Sigmoid, ReLU)和模型模块(Module)。此外,还讲解了如何使用PyTorch进行GPU计算、数据加载和预处理。
7万+

被折叠的 条评论
为什么被折叠?



