深度学习涉及基础知识回顾

一、逻辑回归 sigmiod 与 softmax

1、logistics逻辑回归

详细推导过程见机器学习 逻辑回归

             https://blog.youkuaiyun.com/qq_16555103/article/details/89135490   ----------- 机器学习 逻辑回归 

(1)逻辑回归的损失函数与一阶导数 

(2)逻辑回归参数的求解方式(梯度下降)

2、softmax回顾

 

(1)softmax 预测方式

(2)softmax损失函数 与 一阶导数

  •          损失函数一阶导数推导过程如下:

3、逻辑回归 与 softmax 在神经网络中的作用

(1)逻辑回归在神经网络的作用

1、机器学习中逻辑回归使用 sigmiod 函数激活的,而神经网络 无数的神经元是由 逻辑回归组成的,不同的是 神经元中的逻辑回
    归 激活函数不仅仅有 sigmiod函数,还有其他的激活函数,例:tanh、relu ....

(2)softmax在神经网络中的作用

1、如果说神经网络中由无数个逻辑回归构成,那么 softmax 就是神经网络输出层最后获取结果输出分量的方式。

二、激活函数

              https://blog.youkuaiyun.com/qq_16555103/article/details/89680509     ---------------   TensorFlow常见API

1、激活函数的根本目的:加入非线性因素,使得神经网络可以解决非线性问题。
• 激活函数运行时激活神经网络中某一部分神经元,将激活信息向后传入下一层的神经网络。 神经网络值所以能解决非线性问题,本
    质上就是激活函数加入非线性因素,弥补了线性模 型的表达力,把“激活的神经元的特征”通过函数保留并映射到下一层。
• 因为神经网络的数学基础是处处可微的,所以选取的激活函数要把保证数据输入与输出也 是可微的。
• 常见的激活函数: 
    • sigmoid 
    • tanh 
    • relu 
    • dropout

三、损失函数

(1)常见损失函数

            https://blog.youkuaiyun.com/qq_16555103/article/details/89680509     ---------------   TensorFlow常见API

• 常见损失函数 
    • sigmoid_cross_entropy_with_logits 
    • softmax_cross_entropy_with_logits 
    • weighted_cross_entropy_with_logits 
    • absolute_difference 
    • cosine_distance 
    • hinge_loss 
    • huber_loss 
    • log_loss 
    • ctc_loss 
    • nce_loss

(2)常见的分类/转换函数(即转换为概率等值)

             https://blog.youkuaiyun.com/qq_16555103/article/details/89680509     ---------------   TensorFlow常见API

• 常见的分类/转换函数(即转换为概率等值): 
    • softmax 
    • log_softmax 
    • sigmoid

四、优化方法

             https://blog.youkuaiyun.com/qq_16555103/article/details/89680509     ---------------   TensorFlow常见API

• 如何加速神经网络的训练呢? 
    • 目前加速训练的优化方法基本都基于梯度下降的。只是细节上有差异。 
    • 优化方法: 
        • 梯度下降法(BGD、SGD) 
        • Adadelta 
        • Adagrad(Adagrad、AdagradDAO) 
        • Momentum(Momentum\Nesterov Momentum) 
        • Adam 
        • Ftrl 
        • RMSprop

五、TensorFlow常见API

            https://blog.youkuaiyun.com/qq_16555103/article/details/89680509     ---------------   TensorFlow常见API

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值