机器学习实验(一)—Linear Regression

前几天做了几个机器学习的简单实验:
机器学习实验二–Logistic Regression
实验一是关于简单的线性回归的实验。下面是我的实验报告的截图(直接把word的内容撸过来,格式就全乱了,没有找到解决办法,直接上图吧,也是一种办法),后面给出工程和文档下载的链接。
实验一实验报告和文档
这里写图片描述
这里写图片描述
这里写图片描述

下面给出线性回归的代码(终于不用发愁排版了。。。。)

function test_linear_regression()
% 读入数据
X = load('data\\fourclass.txt'); Y = load('data\\fourclasslabel.txt');
X = [ones(size(X, 1), 1) X];
% 计算 theta
%%%%%课堂完成内容,用梯度下降方法替换theta的计算
%theta = pinv(X)*Y; % theta = inv(X'*X)*X'*Y;
arfa= 0.00015;
[a,b] = size(X);
theta = ones(1,b);
tmp1 = loss_function(theta,X,Y);
while 1
    theta = descent(theta,X,Y,arfa);
    tmp2 = loss_function(theta,X,Y); 
    disp(tmp1-tmp2);
    if(abs(tmp1 -tmp2) <= 1.0e-6)
        break;
    end
    tmp1 = tmp2;
   % disp(theta);
end 
disp(theta);
h = theta*X(1,:)';
disp(abs(h-Y(1,:))/Y(1,:));
h = theta*X(221,:)';
disp(abs(h-Y(221,:))/Y(221,:));
h = theta*X(331,:)';
disp(abs(h-Y(331,:))/Y(331,:));
%disp(tmp1);
%绘制图像%
figure; hold on;
plot(X(Y <= 1, 2), X(Y <= 1, 3), 'rx', 'linewidth', 2);
plot(X(Y > 1, 2), X(Y > 1, 3), 'go', 'linewidth', 2);
x1 = min(X(:,2)):.1:max(X(:,2));

x2 = -(theta(1) / theta(3)) - (theta(2) / theta(3)) * x1+1/theta(3)*1.5;
plot(x1,x2, 'linewidth', 2);
xlabel('x1');   ylabel('x2');
end

function [sum] = loss_function(theta,X,Y)
    sum =0;
    [a,b] = size(X);
    for i = 1:a
        h = theta*X(i,:)';
        sum = sum + (h-Y(i,1))*(h-Y(i,1));
    end
    sum = sum/(2*a);
end
### 线性回归与逻辑回归的区别 线性回归种用于预测连续变量的方法,其假设因变量 \( y \) 和自变量 \( X \) 之间存在线性关系。模型通过最小化实际观测值和预测值之间的平方差来拟合数据[^1]。 逻辑回归则主要用于分类问题,特别是二元分类。尽管名字中有“回归”,但实际上它是个分类算法。逻辑回归利用 Sigmoid 函数将输入映射到 [0, 1] 的概率空间内,从而实现类别归属的概率估计[^2]。 #### 数学表达形式差异 对于线性回归而言,目标是最小化损失函数: \[ J(\theta)=\frac{1}{2m}\sum_{i=1}^{m}(h_\theta(x^{(i)})-y^{(i)})^2 \] 其中 \( h_\theta(x) = \theta_0+\theta_1x_1+...+\theta_nx_n \),即线性组合的形式。 而逻辑回归采用的是最大似然估计法求解参数,并且输出经过Sigmoid转换后的结果作为类别的概率分布: \[ P(y=1|x;\theta )=\frac {e^{\theta ^T x}}{1 + e^{\theta ^T x}},P(y=0|x;\theta )=\frac {1}{1 + e^{\theta ^T x}} \] ```python from sklearn.linear_model import LogisticRegression, LinearRegression import numpy as np # Example data generation for demonstration purposes only. X_linear = np.random.rand(100, 1)*10 Y_linear = 3*X_linear.squeeze() + 4 + np.random.randn(100) model_lr = LinearRegression() model_lr.fit(X_linear, Y_linear) print(f'Linear Regression Coefficients: {model_lr.coef_[0]}') X_logistic = np.vstack((np.ones_like(Y_linear), Y_linear)).T Y_logistic = (Y_linear > np.median(Y_linear)).astype(int) model_lg = LogisticRegression(solver='lbfgs') model_lg.fit(X_logistic[:, :-1], Y_logistic) print(f'Logistic Regression Coefficient: {model_lg.coef_[0][0]}') ``` ### 应用场景对比 当面对数值型的目标变量时,比如房价、温度等可以取任意实数的情况,应该优先考虑使用 **线性回归** 来建立预测模型;而对于离散的选择项或是事件发生的可能性评估,则更适合应用 **逻辑回归** 进行处理,例如判断邮件是否为垃圾邮件、客户是否会购买产品等问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值