Logistic Regression
传送门:https://www.bilibili.com/video/BV1Y7411d7Ys?p=6
学习重要内容


说明:逻辑斯蒂回归和线性模型的明显区别是在线性模型的后面,添加了激活函数(非线性变换),以增强模型的适用性


回归问题:逻辑回归损失函数
二分类:交叉熵损失函数
多分类:Softmax分类函数
代码
import torch
import torch.nn.functional as F
# 1.准备数据
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0.], [0.], [1.]])
# 2.设计模型
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__()
self.linear = torch.nn.Linear(1, 1)
def forward(self, x):
y_pred = torch.sigmoid(self.linear(x))
return y_pred
model = LogisticRegressionModel()
# 3.构建损失函数和优化器
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 4.循环
for epoch in range(1000):
y_pred = model(x_data)
loss = criterion(y_pred, y_data)
print(epoch, loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 绘图
import numpy as np
import matplotlib.pyplot as plt
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200,1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x,y)
plt.plot([0, 10], [0.5,0.5], c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()

该博客介绍了如何使用PyTorch实现逻辑回归模型,详细展示了从数据准备、模型定义、损失函数选择(BCELoss)、优化器设置(SGD)到训练过程,并通过绘制概率曲线来解释模型预测概率的变化。
9万+

被折叠的 条评论
为什么被折叠?



