
统计学习方法
ace2020
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
关于感知机原始形式的损失函数梯度的推导
关于感知机原始形式的损失函数梯度的推导 参考《统计学习方法》 感知机学习算法的原始形式中,L(w,b)对于w,b的梯度是如何计算出来的有点不懂,就自己推到了一下。这里记录一下过程 首先需要看下前置知识 1.实标量函数f(x)相对于1*n 行向量xTx^TxT的梯度(其中x是列向量),定义为: ∂f(x)∂xT=[∂f(x)∂x1,∂f(x)∂x2,∂f(x)∂x3,…,∂f(x)∂xn]=∇xTf...原创 2019-05-22 16:05:41 · 1918 阅读 · 2 评论 -
支持向量机学习笔记
支持向量机学习笔记 参考书籍《统计学习方法》 线性可分支持向量机与硬间隔最大化 关于3个空间 一个学习算法通常有3个空间: 输入空间 --变换–> 特征空间 —模型–>输出空间 输入空间是指输入的所有可能的取值的集合 输出空间是指输出的所有可能的取值的集合 特征空间是指表示实例也就是具体输入的特征向量所在的空间 有的算法中输入空间没有变换成特征空间,直接通过模型映射到输出空间 有的...原创 2019-05-22 17:34:57 · 204 阅读 · 0 评论