
Scikit-Learn
Scikit-Learn 中文文档,翻译自官网
LuCh1Monster
干啥啥不行,吃饭第一名
展开
-
【User Guide|数据集加载工具】7.1-通用数据集API
文章目录翻译 2020-06-13 22:24:11 · 158 阅读 · 0 评论 -
【User Guide|数据集加载工具】7.2-玩具数据集
文章目录翻译 2020-06-13 22:24:24 · 376 阅读 · 0 评论 -
【User Guide |模型选择和评估】3.5-验证曲线: 绘制分数以评估模型
待补充翻译 2020-06-13 18:09:32 · 146 阅读 · 0 评论 -
【User Guide |无监督学习】2.5-分解成分中的信号(矩阵分解问题)
待补充翻译 2020-06-13 13:22:36 · 171 阅读 · 0 评论 -
【User Guide |无监督学习】2.2-流形学习
待补充翻译 2020-06-13 13:23:06 · 256 阅读 · 0 评论 -
【User Guide |无监督学习】2.1-高斯混合模型
待补充翻译 2020-06-13 22:15:36 · 212 阅读 · 0 评论 -
【User Guide|监督学习】1.17-神经网络模型
待补充翻译 2020-06-13 13:15:54 · 175 阅读 · 0 评论 -
【User Guide|监督学习】1.15-等式回归
待补充翻译 2020-06-13 13:11:04 · 155 阅读 · 0 评论 -
【User Guide|监督学习】1.14-半监督学习
待补充翻译 2020-06-13 13:11:15 · 163 阅读 · 0 评论 -
【User Guide|监督学习】1.13-特征选择
待补充翻译 2020-06-13 13:11:23 · 297 阅读 · 0 评论 -
【User Guide|监督学习】1.12-多类和多标签算法
待补充翻译 2020-06-13 13:10:51 · 178 阅读 · 0 评论 -
【User Guide|监督学习】1.11-集成方法
待补充翻译 2020-06-13 13:10:36 · 142 阅读 · 0 评论 -
【用户指南|监督学习】1.10-决策树
待补充翻译 2020-06-17 11:27:44 · 320 阅读 · 0 评论 -
【User Guide|监督学习】1.9-朴素贝叶斯
待补充原创 2020-06-13 12:25:09 · 143 阅读 · 0 评论 -
【User Guide|监督学习】1.8-交叉分解
待补充原创 2020-06-13 12:23:32 · 144 阅读 · 0 评论 -
【User Guide|监督学习】1.7-高斯过程
待补充翻译 2020-06-13 12:22:29 · 173 阅读 · 0 评论 -
【User Guide|监督学习】1.6-最近邻
待补充翻译 2020-06-13 12:21:36 · 131 阅读 · 0 评论 -
【用户指南|监督学习】1.5-随机梯度下降
文章目录1. 分类随机梯度下降(SGD) 是一种简单但又非常高效的方法,主要用于凸损失函数下线性分类器的判别式学习,例如(线性) 支持向量机和 Logistic 回归。 尽管 SGD 在机器学习社区已经存在了很长时间, 但是最近在大规模学习(large-scale learning) 方面 SGD 获得了相当大的关注。SGD 已成功应用于在文本分类和自然语言处理中经常遇到的大规模和稀疏的机器学习问题。对于稀疏数据,本模块的分类器可以轻易的处理超过 10510^5105 的训练样本和超过 10510^51翻译 2020-06-13 12:18:12 · 212 阅读 · 0 评论 -
【用户指南|监督学习】1.4-支持向量机
文章目录1. 分类1.1. 多元分类支持向量机(SVMs) 可用于以下监督学习算法: 分类、回归和异常检测。支持向量机的优势在于:在高维空间中非常高效即使在数据维度比样本数量大的情况下仍然有效在决策函数(称为支持向量)中使用训练集的子集,因此它也是高效利用内存的通用性: 不同的核函数与特定的决策函数一一对应。常见的 kernel 已经提供,也可以指定定制的内核支持向量机的缺点包括:如果特征数量比样本数量大得多,在选择核函数时要避免过拟合,而且正则化项是非常重要的。支持向量机不直接提供翻译 2020-06-13 12:16:20 · 290 阅读 · 0 评论 -
【用户指南|监督学习】1.3-内核岭回归
文章目录内核岭回归(Kernel ridge regression-KRR) 由使用内核方法的岭回归(使用 l2 正则化的最小二乘法)所组成。因此,它所拟合到的在空间中不同的线性函数是由不同的内核和数据所导致的。对于非线性的内核,它与原始空间中的非线性函数相对应。由 KernelRidge 学习的模型的形式与支持向量回归(SVR是一样的。但是他们使用不同的损失函数: 内核岭回归(KRR)使用平方误差损失函数(squared error loss) 而支持向量回归(support vector regre翻译 2020-06-13 12:12:54 · 468 阅读 · 0 评论 -
【用户指南|监督学习】1.2-线性和二次判别分析
文章目录1. 使用线性判别分析来降维2. LDA 和 QDA 分类器的数学公式3. LDA 的降维数学公式4. Shrinkage(收缩)5. 预估算法线性判别分析(Linear Discriminant Analysis)(discriminant_analysis.LinearDiscriminantAnalysis) 和 二次判别分析(Quadratic Discriminant Analysis)(discriminant_analysis.QuadraticDiscriminantAnalysi翻译 2020-06-13 12:12:22 · 459 阅读 · 0 评论 -
【用户指南|监督学习】1.1-线性模型
文章目录1. 普通最小二乘法2. 岭回归和分类2.1 回归2.2 分类2.3 岭回归复杂度2.4 置正则化参数: 广义交叉验证3. Lasso3.1 设置正则化参数3.1.1 使用交叉验证3.1.2 基于信息标准的模型选择3.1.3 与 SVM 的正则化参数的比较4. 多任务 Lasso5. 弹性网络6. 多任务弹性网络7. 最小角回归8. LARS Lasso8.1 数学表达式9. 正交匹配追踪法(OMP)10. 贝叶斯回归10.1 贝叶斯岭回归10.2 主动相关决策理论—ARD11. Logistic翻译 2020-06-13 12:06:47 · 823 阅读 · 0 评论