[机器学习] softmax,sigmoid,relu,tanh激活函数
深度学习激活函数解析:softmax、sigmoid、tanh与ReLU
最新推荐文章于 2025-06-16 08:53:43 发布
本文介绍了深度学习中常用的激活函数:softmax用于多分类,常在最后一层;sigmoid适用于二分类,常在输出层;tanh在隐藏层使用,输出以0为中心;ReLU因其稀疏性与快速计算被广泛采用,但存在梯度消失问题,衍生出Leaky ReLU和ELU等变体。



订阅专栏 解锁全文
897

被折叠的 条评论
为什么被折叠?



