范数 L0 L1 L2 核范数 概念和应用
PCA
- PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。
- PCA的数学原理 http://blog.codinglabs.org/articles/pca-tutorial.html
最大似然函数、EM算法
- 求最大似然函数估计值的一般步骤:
- 写出似然函数;
- 对似然函数取对数,并整理;
- 求导数,令导数为0,得到似然方程;
- 解似然方程,得到的参数即为所求
- 从最大似然函数到EM算法 http://blog.youkuaiyun.com/zouxy09/article/details/8537620
- EM算法:期望最大算法是一种从不完全数据或有数据丢失的数据集(存在隐含变量)中求解概率模型参数的最大似然估计方法。
- EM http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html
- 求最大似然函数估计值的一般步骤:
逻辑回归
感知器算法?
深度学习word2vec
深度学习框架
softmax回归
- http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92
- 对于k类分类,是选择softmax分类器呢,还是k个独立的logic二元分类好?取决于类别之间是否互斥,如果互斥则softmax,如果不互斥(可能是其中的一类或者多类),则多个独立logic。
深度学习(多层神经网络)
梯度下降
- 梯度下降(批量),随机梯度下降,批量随机梯度下降,http://www.cnblogs.com/louyihang-loves-baiyan/p/5136447.html
- 在样本数据量少的时候使用批量梯度下降(下降速度最快),而在数据量大的时候建议使用批量随机梯度下降。
LR vs. DT vs. SVM
。。。持续更新