神经元与矩阵 r = b + W * x
激活函数的位置
激活函数和非线性因素
1、引入激活函数(非线性),给神经元引入非线性元素,使得神经元网络可以逼近任何非线性和函数。
2、常见激活函数
sigmoid : , relu :f(x) = max(0,x)
3、激活函数的特性:能求导
4、模型整体结构
神经网络的参数(可训练,用θ表示)
为参数
- 前向过程:求
- 梯度回传过程:求每个参数的导数
链式求导:
- 更新参数:梯度下降(Gradient Descent),某点下降最快的方向
神经网络(Nerual Network)-> 深度学习(Deep Learning)
Linear(4,3)->Linear(3,2)->Linear(2,1)
layer1 = nn.Linear(4, 3)
layer2 = nn.Linear(3, 2)
layer3 = nn.Linear(2, 1)
优化拟合:1、加深模型深度 2、使用激活函数
过拟合(overfitting)与欠拟合(underfitting)