logistic function

本文介绍了逻辑回归中涉及的net input函数、sigmoid激活函数以及量化器。逻辑回归不仅能预测类别,还能给出预测概率。文章详细阐述了逻辑回归的损失函数,通过平方和误差进行学习,并展示了不同类别样本的损失函数图像。正确预测正负样本时,损失函数趋向于0,预测错误则导致损失函数增大,以此对错误进行惩罚。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
Net input function:
Z=在这里插入图片描述
sigmoid function:
A=在这里插入图片描述
Quantizer: 在这里插入图片描述

逻辑回归不但预测出了事件所属类别,还能计算出事件发生的概率
通过平方和误差来学习逻辑回归损失函数:
在这里插入图片描述

逻辑回归损失函数推导:
在这里插入图片描述

不同类样本对应的损失函数图像:
在这里插入图片描述

如果准确将一个正样本预测为1,那么正样本对应的loss趋近于0,同样,如果准确将一个负样本预测为0,那么负样本对应loss也趋近于0,如果预测是错误的,那么loss会朝着无穷大趋近。所以用一个逐渐增大的cost来对预测错误的情况进行惩罚

### Logistic Sigmoid Function 的概念 Logistic Sigmoid 函数是一种常用的激活函数,在机器学习领域主要用于二分类问题中的逻辑回归模型。该函数的形式如下: \[ f(x) = \frac{1}{1 + e^{-x}} \] 这个函数具有以下特点:其定义域为实数集 \( (-∞, ∞) \),而值域被压缩到区间 (0, 1)[^5]。这种特性使得它非常适合用于概率预测,因为输出可以解释为事件发生的概率。 ### 实现方法 以下是基于 Python 和 NumPy 库实现的简单版本 logistic sigmoid 函数: ```python import numpy as np def sigmoid(z): """ Compute the sigmoid of z. Parameters: z -- A scalar or numpy array of any size. Returns: s -- sigmoid(z) """ s = 1 / (1 + np.exp(-z)) return s ``` 上述代码片段展示了如何计算任意输入 \( z \) 对应的 sigmoid 值[^6]。此函数能够接受标量或者数组作为参数,并返回相应的 sigmoid 计算结果。 对于更复杂的场景,比如训练一个完整的逻辑回归模型,则可利用 `scikit-learn` 提供的功能来简化过程: ```python from sklearn.linear_model import LogisticRegression model = LogisticRegression() model.fit(X_train, y_train) y_pred = model.predict_proba(X_test)[:, 1] ``` 这里通过调用 `predict_proba()` 方法可以获得测试样本属于正类的概率估计值[^7]。 ### 参数调整的重要性 正如指数核中提到的那样,超参的选择对模型性能至关重要。虽然此处讨论的是 sigmoid 而不是具体的核函数,但在构建包含 sigmoid 层的神经网络或其他复杂架构时,初始化权重、设置学习率以及应用合适的优化算法同样需要谨慎对待[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值