线性回归、逻辑回归、SVM以及凸优化的一些推导总结
机器学习部分模型推导与实现
Linear Regression 线性回归
gradient descent相关计算推导

Logistic Regression 逻辑回归
gradient descent相关计算推导

Supprot Vector Machine 支持向量机
优化目标(硬间隔SVM 又称最大间隔分类器

支持向量是位于间隔上的数据点
优化目标:间隔margin最大
margin = 2/||w|| 要这个最大
即要minimize ||w||/2
约束条件

由上图可知,
要求yi(wx+b)>=1
拉格朗日乘子、松弛变量与KKT条件
要从梯度去理解!!!
一个问题说明拉格朗日乘子法解决等式约束
现在我们要解决这样一个问题:x^2*y=3 这个函数距离原点最近的距离是多少。
函数曲线:

梯度图像


梯度理解拉格朗日乘子法

梯度与等值面:https://zhuanlan.zhihu.com/p/111723231
对偶问题
参考:https://zhuanlan.zhihu.com/p/114574438
https://blog.youkuaiyun.com/frostime/article/details/90291392
SVM优化推导
https://blog.youkuaiyun.com/d__760/article/details/80387432
求解α:SMO算法,见上链接
Hinge Loss
能否用梯度下降训练SVM
https://www.zhihu.com/question/265751466
“ 麋路 ”的回答
这篇博客总结了机器学习中的线性回归、逻辑回归和支持向量机(SVM)的模型推导与实现。线性回归通过梯度下降进行参数优化,逻辑回归利用同样方法处理分类问题。SVM的目标是最优间隔,通过拉格朗日乘子法解决等式约束,涉及KKT条件,优化过程中可能使用SMO算法。博客还探讨了Hinge Loss及其在SVM训练中的应用,并讨论了是否能用梯度下降训练SVM。
1204

被折叠的 条评论
为什么被折叠?



