简书:
简单的记录,有写于《统计学习方法》中明确的基本知识没记
第1章 线性模型
线性模型的形式: f(x⃗ )=w⃗ ⋅x⃗ +b f ( x → ) = w → ⋅ x → + b- w⃗ w → 表达了每个特征的权重,即特征重要性
- 推广到n维空间即为
广义线性模型,包括岭回归、lasso回归、Elastic Net、逻辑回归、线性判别分析等 普通线性回归,平方损失函数,梯度下降法求解- 梯度下降法时要
归一化,(1)提升模型收敛速度,归一化前狭长椭圆形,归一化后圆形,迭代更快。(2)提升模型精度,取值范围大的严重影响小的效果。 广义线性模型, h(y)=w⃗ Tx⃗ +b h ( y ) = w → T x → + b ,如对数线性回归, lny=w⃗ Tx⃗ +b ln y = w → T x → + b逻辑回归(logistic regression, LR),用于分类,用极大似然估计法估计,用梯度下降法或拟牛顿法求解线性判别分析(Linear Discriminant Analysis, LDA)。目标:投影到一条直线上,是的同类相近,异类远离。推广后为将M维投影到M-1维,可用于监督降维- 对模型参数添加先验假设,控制模型空间,减小复杂度
(1)Ridge Regression:

这是一篇关于《Python大战机器学习》的读书笔记,涵盖了线性模型、决策树、贝叶斯分类器等多个主题。文章讨论了线性回归、岭回归等方法,解释了如何使用Python实现这些模型。此外,还涉及决策树的构建和剪枝,以及贝叶斯分类器的基本原理。文中提到了k近邻法、数据降维技术和聚类算法,如k-means和DBSCAN。支持向量机、人工神经网络以及半监督学习也被提及,最后讨论了数据预处理和模型评估的重要性。
最低0.47元/天 解锁文章
1026

被折叠的 条评论
为什么被折叠?



