
【机器学习】
同学少年
没有什么不可能!
展开
-
PCA数学原理
文章转载于http://blog.codinglabs.org/articles/pca-tutorial.html,已经过原作者同意。看过很多PCA和SVD的博客,这一篇我感觉是最容易懂的。并且,每篇文章有的公式还不一样,比如有的写的是,有的写的是,有的SVD降维用的是U矩阵,有的写的用的是V矩阵,看的迷迷糊糊。其实它们都是一样的,根本原因是它们采用的原矩阵不一样,也就是 矩阵每一行每一列代表什...转载 2018-08-02 12:16:48 · 421 阅读 · 0 评论 -
相似度/距离方法总结
假设两个向量欧式距离: P范式:p = 1, 1范式: p = 2, 2范式(等于欧氏距离): ...原创 2018-07-26 21:47:29 · 604 阅读 · 0 评论 -
XGBoost 论文笔记
1. 树融合模型假定有一个数据集包含n个样本,每个样本有m个特征。树融合模型是利用K个函数(树)来预测最终的结果。每一个f(x)代表一棵生成的回归树(也称为CART),q代表一棵树的结构,该结构将输入的样本x,映射到该树的叶子结点上去。T代表该树叶子结点的个数, wq(x)表示该树叶子结点上的权重(也是该叶子结点的输出值),wi表示第i个叶子结点的权重。对于给定的一个样本x,它的预...原创 2018-07-24 23:26:05 · 1156 阅读 · 0 评论 -
梯度下降法中,为什么在负梯度方向函数值下降最快
以下内容整理于高数课本以及李宏毅老师的视频:我们想要利用梯度下降来求得损失函数的最小值。也就是每次我们更新参数,当前的损失函数总比上一次要小。假设只有两个参数θ1和θ2,上图是损失函数的等值线,红色点是初始值当前的状态。以红色点为圆心画圆,在这个圆的范围内,我们想要找到一个损失函数更小的值。如下图:这样我们就更新了一次参数,损失函数值变小了。再进行相同的操作,以当前点为圆心...原创 2018-07-15 22:48:18 · 10745 阅读 · 6 评论 -
逻辑回归(公式)
原创 2018-05-05 10:30:17 · 437 阅读 · 0 评论 -
SVM(公式)
原创 2018-05-05 10:24:42 · 605 阅读 · 1 评论 -
SMO算法实现
数据集以及画图部分代码使用的 https://zhiyuanliplus.github.io/SVM-SMOimport numpy as npimport pandas as pdimport matplotlib.pyplot as plt# -- coding: utf-8 --# 没有使用核函数def kij(data_x): return np.dot(dat...原创 2018-04-08 19:20:58 · 1487 阅读 · 0 评论