An Introduction to Linear Regression
Intent
supervised learning:
- regression (continious)
- classfication (discrete)
h(θ)=∑i=0nθiXi=θTX
For historical reasons, this function h is called a hypothesis.
θ′sis the parameters
(x(i),y(i))(trainingexample)
{ (x(i),y(i));i=1,...,m}(trainingset)
要让 h(θ) 接近于trainset中的 y(i)
cost function: J(θ)=12∑i=1m(hθ(x(i)−y(i))2
为了让train出的model能stable,需要在bias和variance中tradeoff。regularized regression 会使用L1(lasso)和L2(ridge)作为penalty。其中L1相当于feature selection(parameter变为0)。而L2主要是减少variance。cross validation和bootstrap也是常用的trade bias和variance的方法。
LMS
gradient descent
θj=θj−α∂∂θjJ(θ)
α is learning rate
∂∂θj

本文介绍了线性回归的基本概念,包括线性回归的意图、最小均方误差(LMS)算法、梯度下降法以及在偏差与方差之间的权衡。还探讨了正则化在L1(Lasso)和L2(岭回归)中的作用,以及批量梯度下降和随机梯度下降的区别。此外,文章提到了线性回归在概率和线性代数中的解释,以及如何从几何角度理解线性回归的投影。最后,文章简要讨论了逻辑回归和广义线性模型的概念。
最低0.47元/天 解锁文章
1247

被折叠的 条评论
为什么被折叠?



