随机梯度下降(Stochastic Gradient Descent)
通过随机梯度近似法最小化目标函数。
输入
• 数据:输入数据集
• 预处理器:预处理方法(可选)
输出
• 学习器:随机梯度下降学习算法
• 模型:训练后的模型
随机梯度下降(SGD)部件使用随机梯度下降算法,通过线性函数最小化选定的损失函数。该算法每次仅考虑一个样本以近似真实梯度,并根据损失函数的梯度同步更新模型。对于回归任务,它返回最小化损失和的预测器(即 M 估计量),尤其适用于大规模和稀疏数据集。

- 指定模型名称:默认名称为“SGD”。
- 算法参数:
- 分类损失函数:
- 合页损失(Hinge,线性 SVM)
- 逻辑回归(Logistic Regression,逻辑回归 SGD)
- 改进 Huber 损失(对异常值容忍并提供概率估计)<
- 分类损失函数:
订阅专栏 解锁全文
68

被折叠的 条评论
为什么被折叠?



