
machine learning
文章平均质量分 84
haxiongha
这个作者很懒,什么都没留下…
展开
-
sigmoid tanh Relu比较
1、sigmoid函数函数曲线图如下:函数导数曲线图如下:优点:输出为0到1之间的连续实值,此输出范围和概率范围一致,因此可以用概率的方式解释输出。-将线性函数转变为非线性函数缺点:容易出现gradient vanishing函数输出并不是zero-centered幂运算相对来讲比较耗时对应的tf函数:tf.nn.sigmoid()2、ta...原创 2018-02-28 18:47:26 · 23402 阅读 · 0 评论 -
循环递归神经网络
1、在自然语言处理过程中,神经网络中输入的语言中的每个单词都是以向量的形式送入的,那个该怎样将语言转化为向量形式呢?一般采用1-of-N编码方式处理,处理过程如下:具体原理参考笔记:http://blog.youkuaiyun.com/chloezhao/article/details/534844712、Long Short-term Memory(LSTM)结构框架如下图所示:...原创 2018-02-28 18:58:19 · 886 阅读 · 0 评论 -
logistic regression算法原理及实现
逻辑回归所要学习的函数模型为y(x),由x->y,x为样本,y为目标类别,即总体思想是任意给出一个样本输入,模型均能将其正确分类。实际运用中比如有邮箱邮件分类,对于任意一封邮件,经过模型后可将其判别为是否是垃圾邮件。假如我们知道某类数据的条件概率分布函数P(y|x),则不管输入x是什么值,均能计算出输出y为特定值的概率,根据概率的大小,也就可以将其正确分类。因此我们需要做的就是找到一个尽...原创 2018-07-08 19:36:44 · 2294 阅读 · 0 评论 -
BP算法原理解析
考虑以下两个单连接神经元: 根据上图 可得如下公式推导: n1=w1a0n2=w2a1n1=w1a0n2=w2a1n_{1}=w_{1}a_{0}\quad \quad \quad \quad\quad n_{2}=w_{2}a_{1} a1=f1(n1)a=a2=f2(n2)a1=f1(n1)a=a2=f2(n2)a_{1}=f_{1}(n_{1})\quad\quad\quad\qu...原创 2018-07-11 11:44:13 · 5602 阅读 · 0 评论