转载请注明,本文出自Bin的专栏http://blog.youkuaiyun.com/xbinworld,谢谢!
————————————————————————————————————————————
目前我已经整理了的系列原创文章(水平有限,请见谅),还有很多,未完待续:
- 机器学习方法:回归(一):线性回归linear regression
- 机器学习方法:回归(二):回归、稀疏与正则约束ridge regression,Lasso
- 机器学习方法:回归(三):最小角回归Least Angle Regression,forward stagewise selection
- 机器学习方法(四):决策树decision tree原理与实现trick
- 机器学习方法(五):逻辑回归Logistic Regression,Softmax Regression
- 机器学习方法(六):随机森林Random Forest,bagging
- 机器学习方法(七):Kmeans聚类K值如何选,以及数据重抽样方法Bootstrapping
- 机器学习方法(八):随机采样方法整理(MCMC、Gibbs Sampling等)
- 深度学习方法:受限玻尔兹曼机RBM(一),(二),(三),(四)
- 深度学习方法:卷积神经网络CNN(五)经典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning
- 深度学习方法(六):神经网络weight参数怎么初始化
-
深度学习方法(七):SqueezeNet 模型详解,CNN模型参数降低50倍,压缩461倍!
————————————————————————————————————————————
目前想到的有这些topic,我就抽工作业余时间慢慢复习,慢慢写
content:
linear regression, Ridge, Lasso
LARS
Logistic Regression, Softmax
Kmeans, GMM, EM, Spectral Clustering
Dimensionality Reduction: PCA、LDA、Laplacian Eigenmap、 LLE、 Isomap(基本写过了,需要修改前面的blog)
SVM
Decision Tree: ID3、C4.5
Apriori,FP
SOM
优化方法:BFGS method,SGD,Conjugate gradient,Coordinate descent等
PageRank
minHash, LSH, Hashing
Manifold Ranking,EMR
PLSA,LDA
Deep Learning Basics:
MLP/ANN
RBM
CNN
AutoEncoder,DAE,SAE
RNN/LSTM
还有很多其他的
待补充
————————————————————————————————————————————
“机器学习/深度学习方法“系列,我本着开放与共享(open and share)的精神撰写,目的是让更多的人了解机器学习的概念,理解其原理,学会应用。现在网上各种技术类文章很多,不乏大牛的精辟见解,但也有很多滥竽充数、误导读者的。这个系列对教课书籍和网络资源进行汇总、理解与整理,力求一击中的,通俗易懂。机器学习很难,是因为她有很扎实的理论基础,复杂的公式推导;机器学习也很简单,是因为对她不甚了解的人也可以轻易使用。我希望好好地梳理一些基础方法模型,输出一些真正有长期参考价值的内容,让更多的人了解机器学习。所以对自己的要求有三:(1)不瞎写,有理有据;(2)尽量写的通俗易懂;(3)多看多想,深入浅出。
本人14年博士毕业,希望与志同道合的朋友一起交流,我设立了了一个技术交流QQ群:433250724,欢迎对算法、技术、应用感兴趣的同学加入,在交流中沟通——算法与技术,让理论研究与实际应用深度融合;也希望能有大牛能来,为大家解惑授业,福泽大众。推广开放与共享的精神。如果人多我就组织一些读书会,线下交流。(现在人还不多,不管做什么方向的大家都可以多多交流,希望有更多的人可以来讨论,重点是对machine learning感兴趣。)