Coursera Deeplearning.ai「深度学习」课程笔记L1.W3浅层神经网络
本文探讨了浅层神经网络中三种主要的激活函数:sigmoid、tanh和ReLu。sigmoid函数常用于输出层的二分类问题;tanh函数适用于大多数场景;而ReLu是最常用的激活函数,尤其在不确定选择哪种激活函数时,ReLu或其变种LeakyReLu是优选。
本文探讨了浅层神经网络中三种主要的激活函数:sigmoid、tanh和ReLu。sigmoid函数常用于输出层的二分类问题;tanh函数适用于大多数场景;而ReLu是最常用的激活函数,尤其在不确定选择哪种激活函数时,ReLu或其变种LeakyReLu是优选。

被折叠的 条评论
为什么被折叠?