机器学习-多变量线性回归-详细示例版

本文深入解析了线性回归中批量梯度下降算法的数学原理,详细阐述了代价函数及其偏导数的计算过程,并提供了Java版本的代码实现,帮助读者理解如何通过编程实现多变量线性回归。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文会尽可能详细地解释目前其他网上教程所忽略的原理(重点放在补充他人未说清楚的,或者一带而过的),并给出Java版本的代码实现示例。

 

代价函数求偏导数的过程:

代价函数:

J(\theta_0,\theta_1...\theta_n)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})^2

即对 (h_\theta(x^{(i)})-y^{(i)})^2 求导(再求和),

其中 ^{(i)} 是求和过程中的标记,因此忽略掉,即:(h_\theta(x)-y)^2

其中 h_\theta(x)=\theta^TX=\theta_0x_0+\theta_1x_1+...+\theta_nx_n

(h_\theta(x)-y)^2 = (\theta_0x_0+\theta_1x_1+...+\theta_nx_n)^2-2y(\theta_0x_0+\theta_1x_1+...+\theta_nx_n)+y^2

 

第一部分求导

关于 \theta_p 求导,先求导 (\theta_0x_0+\theta_1x_1+...+\theta_nx_n)^2 部分,直接忽略掉与 \theta_p 无关的部分

(\theta_0x_0+\theta_1x_1+...+\theta_nx_n)^2 展开之后,与 \theta_p 有关的项是:

\theta_p^2x_p^2+2\theta_px_p(\theta_0x_0+\theta_1x_1+...+\theta_nx_n-\theta_px_p)

求导之后:
2\theta_px_p^2+2x_p(\theta_0x_0+\theta_1x_1+...+\theta_nx_n-\theta_px_p)

2x_p(\theta_px_p+h(x)-\theta_px_p)
2x_ph(x)


第二部分求导
-2y(\theta_0x_0+\theta_1x_1+...+\theta_nx_n) 关于\theta_p 求导,得到

-2yx_p


第三部分求导
y^2求导为 0

 

三部分相加
偏导数为

2x_p(h(x)-y)

 

所以多变量线性回归的批量梯度下降算法为:

\theta_p := \theta_p - \alpha \frac{1}{m}\sum_{i=1}^m(h_\theta(x^{(i)})-y^{(i)})x_p^{(i)}

 

线性回归Java版本代码

Linear Regression with Multiple Variables

/** 数据集 */
public class TrainingSet {

    public List<Data> dataList = new ArrayList<>();

    public void add(double y, double... x) {
        Data data = new Data();
        data.x = x;
        data.y = y;
        dataList.add(data);
    }

    public static class Data {
        public double[] x;
        public double y;
    }

}
/** 线性回归例子 */
public class LinearRegression {

    /** 添加模拟数据 */
    static void mock(TrainingSet ts, double x1, double x2) {
        // 模拟 y = θ0·x0 + θ1·x1 + θ2·x2
        // 其中 x0 永远为1
        final double θ0 = 3.2, θ1 = 1.5, θ2 = 0.3;
        final double x0 = 1;
        double y = θ0*x0 + θ1*x1 + θ2*x2;
        ts.add(y, x0, x1, x2);
    }

    public static void main(String[] args) {
        TrainingSet ts = new TrainingSet();
        //生成100组模拟数据
        for(int i = 0; i < 100; i++) {
            mock(ts, Math.random(), Math.random());
        }

        LinearRegression lr = new LinearRegression();
        lr.study(ts);
    }


    double[] θ;

    final double alpha = 0.001;

    /** 启动学习 */
    void study(TrainingSet ts) {
        initTheta(ts);
        double costMin = Double.MAX_VALUE;
        while(true) {
            double cost = calculateCost(ts);
            if(cost < costMin) {
                double[] delta = new double[θ.length];
                for(int i = 0; i < θ.length; i++) {
                    delta[i] = calculateDelta(ts, i);
                    System.out.println("delta"+i+" = " + D(delta[i]) + ", cost=" + D(cost) + ", θ"+i+"=" + D(θ[i]));
                }
                for(int i = 0; i < θ.length; i++) {
                    θ[i] = θ[i] - alpha * delta[i];
                }
                costMin = cost;
            } else {
                break;
            }
        }
        System.out.println("本轮学习得到的θ为:" + DA(θ));
    }

    /** 初始化theta */
    void initTheta(TrainingSet ts) {
        if (null == θ) {
            θ = new double[ts.dataList.get(0).x.length];
        }
    }

    /** 预测函数 */
    double hypothesis(double[] x) {
        //return θ[0] * x[0] + θ[1] * x[1] + θ[2] * x[2] + ...;
        double value = 0;
        for (int i = 0;  i < x.length; i++) {
            value += θ[i] * x[i];
        }
        return value;
    }

    /** 计算代价 */
    double calculateCost(TrainingSet ts) {
        // 代价函数 J(θ0,θ1...θn) = Σ[i=1~m](h(x_i) - y_i)² / 2m
        // m 代表 m组数据
        double variance = 0;
        for(TrainingSet.Data data : ts.dataList) {
            variance += Math.pow(hypothesis(data.x) - data.y, 2);
        }
        return variance / (2 * ts.dataList.size());
    }

    /** 计算代价函数的偏导数
     * @param i 对θi求偏导 */
    double calculateDelta(TrainingSet ts, int i) {
        double sum = 0;
        for (TrainingSet.Data data : ts.dataList) {
            sum += 2 * data.x[i] * ( hypothesis(data.x) - data.y );
        }
        return sum;
    }

    static DecimalFormat fmt = new DecimalFormat("#.#####");

    static String D(double val) {
        return fmt.format(val);
    }

    static String DA(double[] vals) {
        StringBuilder sb = new StringBuilder();
        for(int i = 0; i < vals.length; i++) {
            sb.append("θ" + i + " = " + fmt.format(vals[i]) + " , ");
        }
        return sb.toString();
    }
}

 

 

### 线性回归基础知识与入门教程 线性回归是一种用于建模特征(自变量)和响应变量(因变量)之间线性关系的方法[^4]。它广泛应用于数据分析和机器学习领域,能够帮助我们理解和预测连续型目标变量。 #### 1. 基本概念 简单线性回归涉及单个输入变量 \(x\) 和输出变量 \(y\) 的关系,通常表示为: \[ y = w_1x + b \] 其中 \(w_1\) 是权重(斜率),\(b\) 是偏置项(截距)。对于多个输入变量的情况,则扩展为多元线性回归形式: \[ y = w_1x_1 + w_2x_2 + \dots + w_nx_n + b \] 如果存在非线性关系,可以通过引入高次幂或其他变换来拟合更复杂的模式,例如二次项或三次项的关系[^1]。 #### 2. 使用 Python 实现线性回归 `scikit-learn` 提供了一个强大的工具 `LinearRegression()` 来快速构建线性回归模型。以下是基本用法示例: ```python from sklearn.linear_model import LinearRegression import numpy as np # 创建样本数据 X = np.array([[1], [2], [3], [4], [5]]) y = np.array([2, 4, 6, 8, 10]) # 初始化并训练模型 model = LinearRegression() model.fit(X, y) # 输出回归系数和截距 print(f"回归系数: {model.coef_[0]}") # 回归系数对应于 w1 print(f"截距: {model.intercept_}") # 截距对应于 b ``` 通过上述代码,我们可以轻松获取模型的参数,并进一步利用这些参数进行预测操作。 #### 3. 学习资源推荐 为了深入掌握线性回归的知识体系,建议参考 Andrew Ng 教授在斯坦福大学开设的《Machine Learning》课程[^2]。该课程不仅涵盖了理论基础,还包括实际案例的应用方法,非常适合初学者逐步提升自己的技能水平。 此外,《Python从零到壹》系列文章也提供了详尽的内容梳理,特别是关于回归分析的部分,包含了大量实例说明以及代码演示。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值