斯坦福CS231课程笔记(上)

这篇博客涵盖了斯坦福大学CS231课程的卷积神经网络、网络训练策略等内容。讨论了卷积层和池化层参数设置、激活函数(如Sigmoid、ReLU、Leaky ReLU和ReLU6)、数据预处理、权重初始化、批量归一化、超参数选择、优化算法(包括SGD变种)以及正则化技术,如Dropout和L1/L2正则化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CS231n: Convolutional Neural Networks for Visual Recognition

笔记中文翻译:https://zhuanlan.zhihu.com/p/21930884?refer=intelligentunit


Lecture 5:    Convolutional Neural Networks

卷积层的参数设置:

池化层的参数设置:


Lecture 6:    Training Neural Networks,Part I

激活函数的选择

Sigmoid:
  • - Squashes numbers to range [0,1]
  • - Historically popular since they have nice interpretation as a saturating “firing rate” of a neuron
  • - Saturated neurons “kill” the gradients (x很小或很大时,梯度趋近于0)
  • - Sigmoid outputs are not zero-centered(w的梯度will be always all positive or all negative,也就是所有w每次都往同一个方向前进
        w本来应该走蓝色方向,现在只能走红色方向
  • - exp() is a bit compute expensive
tanh:
  • - Squashes numbers to range [-1,1]
  • - zero centered (nice)
  • - still kills gradients when saturated 
ReLU:
  • - Does not saturate (in +region)
  • - Very computationally efficient
  • - Converges much faster than sigmoid/tanh in practice (e.g. 6x)
  • - Actually more biologically plausible than sigmoid
  • - Not zero-centered output
  • - An annoyance: what is the gradient when x < 0?
               dead ReLU will never activate=> never update </
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值