文章目录
-
-
-
- 1.1欢迎
- 1.2 什么是神经网络
- 1.3 用神经网络进行监督学习
- 1.4 为什么深度学习会兴起?
- 2.1 二分分类
- 2.2 logistic回归
- 2.3 logistic回归损失函数 logistic regression cost function
- 2.4 梯度下降法 gradient descent
- 2.5 导数
- 2.6 更多导数的例子
- 2.7计算图 computation graph
- 2.8 使用计算图求导
- 2.9 logistic回归中的梯度下降法
- 2.10 m个样本的梯度下降
- 2.11 向量化 vectorization
- 2.12 向量化的更多例子
- 2.13 向量化logistic回归
- 2.14 向量化logistic回归的梯度输出
- 2.15 python中的广播
- 2.16 python numpy向量的说明
- 2.17 Jupyter_ipython的快速指南
- 2.18 (选修)logistic损失函数的解释
- 3.1神经网络概览
- 3.2 神经网络表示
- 3.3 计算神经网络的输出
- 3.4 多个样本的向量化
- 3.5 向量化实现的解释
- 3.6激活函数
- 3.7 为什么需要激活函数?
- 3.8 激活函数的导数
- 3.9 神经网络的梯度下降法
- 3.10 直观理解反向传播
- 3.11 随机初始化
- 4.1 深层神经网络
- 4.2 前向和反向传播
- 4.3 深层网络中的前向传播
- 4.4 核对矩阵的维数
- 4.5 为什么使用深层表示
- 4.6 搭建深层网络神经块
- 4.7 参数VS超参数
- 4.8 这和大脑有什么关系?
-
-
1.1欢迎
1.2 什么是神经网络
最简单的神经网络
s i z e ( x ) → ◯ ( n e u r o n )