LogisticRegression(逻辑回归,对率回归)损失函数推导

昨天面试遇到的问题,今天整理出来。主要是损失函数的推倒。
http://blog.wangcaimeng.top/2019/03/05/LogisticRegression-逻辑回归)损失函数推导/

  • 预测函数
    y ^ = H ( x ) = 1 1 + e − ( ω T x + b ) \widehat{y} = H(x) = \frac{1}{1+e^{-(\boldsymbol{\mathbf{}\omega }^{T}\boldsymbol{x}+b)}} y =H(x)=1+e(ωTx+b)1
  • 两边取对数,变形:
    l n 1 − y ^ y ^ = − ( ω T x + b ) ln\frac{1-\widehat{y}}{\widehat{y}} = -(\boldsymbol{\mathbf{}\omega }^{T}\boldsymbol{x}+b) lny 1y =(ωTx+b)
  • 1 − y ^ 1-\widehat{y} 1y
逻辑回归也称作logistic回归分析,是一种广义的线性回归分析模型,属于机器学习中的监督学习。其推导过程与计算方式类似于回归的过程,但实际上主要是用来解决二分类问题(也可以解决多分类问题)。通过给定的n组数据(训练集)来训练模型,并在训练结束后对给定的一组或多组数据(测试集)进行分类,其中每一组数据都是由p个指标构成[^1]。 逻辑回归的训练方法通常如下: 1. **准备数据**:收集并整理包含特征和对应标签的数据集,将其划分为训练集和测试集。 2. **模型初始化**:初始化逻辑回归模型的参数,如权重和偏置。 3. **定义损失函数**:常用的损失函数是对数损失函数,通过极大似然估计推导得出。 4. **优化参数**:使用优化算法(如梯度下降法)最小化损失函数,不断更新模型参数。 5. **训练模型**:在训练集上反复迭代,直到损失函数收敛或达到预设的迭代次数。 6. **模型评估**:使用测试集评估训练好的模型的性能,如准确、召回等。 以下是使用Python的`sklearn`库实现逻辑回归的示例代码: ```python from sklearn.linear_model import LogisticRegression from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # 加载数据集 iris = load_iris() X = iris.data y = iris.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 创建逻辑回归模型 model = LogisticRegression() # 训练模型 model.fit(X_train, y_train) # 预测 y_pred = model.predict(X_test) # 评估模型 accuracy = accuracy_score(y_test, y_pred) print(f"Accuracy: {accuracy}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值