
ML & DL
文章平均质量分 93
Elijha
DL小学生
展开
-
DiscoGAN
Abstract人类可以在无监督的情况下轻易地发现两个东西之间的联系(或者说相同点), 而想让机器学习的话需要人类给他们配对作为ground truth然后再进行训练.为了避免这种配对的麻烦, 提出了DiscoGANWe propose a method based on generative adversarial networks that learns to discover relat原创 2017-05-24 17:05:26 · 2164 阅读 · 3 评论 -
回归(regression)和logistic regression
回归“回归”就是“回归本质”的意思。用一个函数去拟合一组数据(xi,yi)(x^i,y^i),随着数据越来越多,用来拟合的这个曲线就越来越接近真实的情况。这里xix^i可以是一个向量, 假设xi∈Rnx^i \in R^n, 若用线性回归的方法, 首先把它扩展为n+1n+1维, 用来拟合的参数θ∈Rn+1\theta \in R^{n+1}; 其中x0=1x_0 =1, 对应θ0\theta_0为原创 2017-05-04 15:03:54 · 772 阅读 · 0 评论 -
EBGAN总结
写在开头读这篇文章的初衷有三,一是对GAN感兴趣,二是看到的时候说是LeCun的文章,三是想学习一下总是听到的“Energy based”思想。然而看完了INTRODUCTION和MODEL两部分后就没再看下去,我个人认为这是个标题党,因为只是对架构和loss function稍作修改,并没有用到多少能量的思想。(不过我没看实验部分,起码在模型设计或者数学理论上並不算的上是GAN多大的创新。Intr原创 2017-04-19 21:09:47 · 9987 阅读 · 2 评论 -
Logistic regression
回归“回归”就是“回归本质”的意思。用一个函数去拟合一组数据,随着数据越来越多,用来拟合的这个曲线就越来越接近真实的情况。 * linear regression:用直线拟合 * logistci regression:用一种曲线拟合(是不是sigmoid形状的曲线?)Logistics regressionθT⋅x\theta^T \cdot x是linear regression,套一层si原创 2017-10-15 01:10:20 · 240 阅读 · 0 评论 -
learning_rate&weight_decay&momentum
http://blog.youkuaiyun.com/u010025211/article/details/50055815 >Caffe中learning rate 和 weight decay 的理解weight decay在机器学习或者模式识别中, 会出现overfitting, 而当网络逐渐overfitting时网络权值逐渐变大; 因此, 为了避免出现overfitting, 会给误差函数添加一个惩罚原创 2017-10-15 01:12:00 · 521 阅读 · 0 评论 -
稀疏编码
http://blog.youkuaiyun.com/zouxy09/article/details/8777094 如何理解深度学习中的deconvolution networks?谭旭的回答如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即 O=a1⋅ϕ1+a2⋅ϕ2+...+an⋅ϕnO=a_1 \cdot \phi_1+a_2 \cdot \phi_2+...+a_n \cdot原创 2017-10-15 01:17:07 · 1406 阅读 · 0 评论 -
LSTM笔记
前言Understanding LSTM Networks 这篇博客应该是所有学习LSTM的同学必看而且一看就会的博客了。我看了无数遍,忘了无数遍,所以还是写一篇总结记录一下……正文先放一张LSTM的整体图: 看上去好复杂……但是不用担心,分解开看的话是非常清晰简单的。核心思想LSTM的key是cell state,即细胞状态,就是下图中的横线。它像一条传送带一样贯...原创 2018-04-24 11:45:19 · 326 阅读 · 0 评论