一、Part one神经网络和深度学习
1.A[1]矩阵,在横向方向上表示的是不同样本的切换,在纵向方向上表示的是不同layer层的切换。
右上角for loop代码可以向量化为下面四行代码(利用矩阵+b广播)
2.四个常用的激活函数(sigmoid\tanh\relu(retectified linear unit)\leaky relu)
3.激活函数的导数
本文介绍了深度学习的基础知识,包括神经网络的激活函数、梯度下降算法和反向传播的直观理解。此外,还探讨了优化深度神经网络的方法,如超参数选择、正则化(L2、Dropout)以及数据扩增和早期停止策略,强调了训练、开发和测试集的合理划分对模型性能的影响。
1.A[1]矩阵,在横向方向上表示的是不同样本的切换,在纵向方向上表示的是不同layer层的切换。
右上角for loop代码可以向量化为下面四行代码(利用矩阵+b广播)
2.四个常用的激活函数(sigmoid\tanh\relu(retectified linear unit)\leaky relu)
3.激活函数的导数

被折叠的 条评论
为什么被折叠?