内容
pytorch使用nn.Moudle实现逻辑回归
问题
loss下降不明显
解决方法
#源代码 out的数据接收方式
if torch.cuda.is_available():
x_data=Variable(x).cuda()
y_data=Variable(y).cuda()
else:
x_data=Variable(x)
y_data=Variable(y)
out=logistic_model(x_data) #根据逻辑回归模型拟合出的y值
loss=criterion(out.squeeze(),y_data) #计算损失函数
#源代码 out的数据有拼装数据直接输入
# if torch.cuda.is_available():
# x_data=Variable(x).cuda()
# y_data=Variable(y).cuda()
# else:
# x_data=Variable(x)
# y_data=Variable(y)
out=logistic_model(x_data) #根据逻辑回归模型拟合出的y值
loss=criterion(out.squeeze(),y_data) #计算损失函数
print_loss=loss.data.item() #得出损失函数值
源代码
import torch
from torch import nn
from torch.autograd import Variable
import matplotlib.pyplot as plt
import numpy as np
#生成数据
sample_nums = 100
mean_value = 1.7
bias = 1
n_data = torch.ones(sample_nums, 2

本文通过实例解析如何在PyTorch中使用nn.Module构建逻辑回归模型,针对训练过程中loss下降不明显的常见问题,提出解决方案,并展示完整源代码及运行结果。
最低0.47元/天 解锁文章
1258

被折叠的 条评论
为什么被折叠?



