链接:
https://www.bilibili.com/video/BV1e34y1M7wR/?p=2&spm_id_from=pageDriver&vd_source=e37063ab334e2375db73b2885f88bb0d
全连接神经网络的整体架构
全连接神经网络的结构单元
其中a表示激活函数,用数学表达式:
a=h(w*x+b) 往往是非线性的
h(h(h(x)))代表一层一层神经网络的组合
为什么要加入激活函数
梯度下降法
a: 学习率 一般为0.001-0.05 如果太大或太小都不行
训练过程
CNN
卷积就是一种运算,卷积神经网络核心就是卷积运算,池化运算
卷积运算:
其中卷积核就是神经网络中的w(图片中的w大小的2*2)
输出后得到a,再加上激活函数y=h(a)