
数学基础
gdengden
这个作者很懒,什么都没留下…
展开
-
LDA学习
学习中。。。。。。隐式狄利克雷划分Latent Dirichlet Allocation,简称LDA。注意不要和Linear Discriminant Analysis搞混了。这方面的文章,首推rickjin(靳志辉)写的《LDA数学八卦》一文。全文篇幅长达55页,我实在没有能力写的比他更好,因此这里就做一个摘要好了。http://vdisk.weibo.com/s/q0sGh/136033410...转载 2018-04-09 22:26:46 · 1465 阅读 · 0 评论 -
主成分分析(Principal components analysis)-最大方差解释(转)
在这一篇之前的内容是《Factor Analysis》,由于非常理论,打算学完整个课程后再写。在写这篇之前,我阅读了PCA、SVD和LDA。这几个模型相近,却都有自己的特点。本篇打算先介绍PCA,至于他们之间的关系,只能是边学边体会了。PCA以前也叫做Principal factor analysis。1. 问题 真实的训练数据总是存在各种各样的问题:1、 比如拿到一个汽车的样本...转载 2018-06-20 16:48:21 · 12175 阅读 · 0 评论 -
理解稀疏编码sparse coding
2016年01月03日 19:31:25阅读数:8558稀疏编码系列:(一)----Spatial Pyramid 小结(二)----图像的稀疏表示——ScSPM和LLC的总结(三)----理解sparse coding(四)----稀疏模型与结构性稀疏模型-----------------------------------------------------------------------...转载 2018-06-20 16:54:07 · 43083 阅读 · 2 评论 -
机器学习中的损失函数 (着重比较:hinge loss vs softmax loss)
https://blog.youkuaiyun.com/u010976453/article/details/78488279这里是比较全的,引用过来有好多公式变化了 https://blog.youkuaiyun.com/left_la/article/details/9159949常见向量范数和矩阵范数 1. 损失函数损失函数(Loss function)是用来估量你模型的预测值 f(x)f...转载 2018-12-15 18:06:20 · 2996 阅读 · 0 评论